[go: up one dir, main page]

Academia.eduAcademia.edu

Measuring Client-Vendor Distance in Global Outsourceing Relationships: A Conceptual Model

2009, Wirtschaftsinformatik

Business Services: Konzepte, Technologien, Anwendungen 9. Internationale Tagung Wirtschaftsinformatik Band 1 books@ocg.at BAND 246 Wissenschaftliches Redaktionskomitee o.Univ.Prof.Dr.G.Chroust o.Univ.Prof.Dr.G.Haring Univ.Prof.Dr.G.Kotsis Univ.Doz.Dr.V.Risak Dr. N. Rozsenich o.Univ.Prof.Dr.P.Zinterhof Hans Robert Hansen, Dimitris Karagiannis, Hans-Georg Fill (Hrsg.) Business Services: Konzepte, Technologien, Anwendungen 9. Internationale Tagung Wirtschaftsinformatik Wien, 25. – 27. Februar 2009 Band 1 © Österreichische Computer Gesellschaft 2009 © Österreichische Computer Gesellschaft 1010 Wien, Wollzeile 1-3 Komitee für Öffentlichkeitsarbeit www.ocg.at Druck: Druckerei Riegelnik 1080 Wien, Piaristengasse 19 ISBN 978-3-85403-246-5 Österreichische Computer Gesellschaft, Band 1 VORWORT Die alle zwei Jahre veranstaltete Internationale Tagung Wirtschaftsinformatik ist die größte Fachtagung für Wirtschaftsinformatik im europäischen Raum. Expertinnen und Experten aus Wissenschaft und Praxis diskutieren bei dieser Veranstaltung innovative Ansätze zur Gestaltung betrieblicher Informationssysteme und die dadurch bewirkte Transformation von Geschäftsprozessen, Unternehmen und Märkten. Dabei werden diesmal unter dem Generalthema „Business Services: Konzepte, Technologien, Anwendungen“ zwei aktuelle Entwicklungstendenzen aufgegriffen. Erstens der Trend zu serviceorientierten Architekturen, für die derzeit die wissenschaftliche Gemeinschaft neue Konzepte und Ansätze erforscht und bis zur Einsatzreife bringt. Bei Serviceorientierung handelt es sich um eine Form einer verteilten Informationsarchitektur, deren Fokus auf der Ankündigung, dem Auffinden und dem dynamischen Aufrufen von hoch stehenden, anwendungsnahen und in sich abgeschlossenen Diensten liegt. Ziel ist meist auch eine lose Kopplung von Anwendungssystemen und damit eine Steigerung der Flexibilität. Die Konzepte und Technologien bei der Entwicklung und Umsetzung von Business Services bilden den ersten Tagungsschwerpunkt. Zweitens besteht ein Trend zur Dienstleistungsgesellschaft, der sich auch in den IT-Investitionen, dem IT-Einsatz und den Tätigkeitsfeldern von IT-Fachkräften niederschlägt. Diese Aspekte werden im Bereich Anwendungen berücksichtigt, der nach Branchen gegliedert ist. Wie interessant und vielfältig diese Thematik ist, zeigt sich unter anderem in den rund 640 eingereichten Beiträgen, von denen die besten 160 im Rahmen eines sorgfältigen Begutachtungsverfahrens ausgewählt wurden. Pro anonymisierten Beitrag wurden mindestens drei Gutachten eingeholt, insgesamt wurden mehr als 1.800 Gutachten von über 400 Fachexperten erstellt. Als Neuerung der WI 2009 werden die einzelnen Themengebiete jeweils durch einen eingeladenen Kurzvortrag eines Praktikers („Praxisdialog“) ergänzt. Für diese Kurzvorträge bestand ebenfalls die Möglichkeit der Einreichung eines Beitrags, jedoch ohne das wissenschaftliche Begutachtungsverfahren durchlaufen zu müssen. Damit soll die Wichtigkeit des Zusammenspiels von Theorie und Praxis in der Wirtschaftsinformatik unterstrichen werden - von der einen Seite als Lieferant von Anforderungen, aktuellen Problemstellungen und der Bewertung entworfener Konzepte, von der anderen Seite in Form von anwendbaren Konzepten und adäquaten Lösungen. Für das Gelingen der Tagung möchten wir uns bei den zahlreichen beteiligten Personen bedanken. Insbesondere danken wir den AutorInnen für die Einreichung der vielen hochwertigen Beiträge, die den Kern des wissenschaftlichen Programms darstellen. Des Weiteren möchten wir den Leitungsgremien und den Programmkomitees der Tracks danken, die es durch die Bereitstellung ihrer Fachexpertise ermöglicht haben, die besten Beiträge auszuwählen und so die wissenschaftliche Qualität zu sichern. 5 Bedanken möchten wir uns auch bei unseren Sponsoren, die mit ihrer großzügigen finanziellen Unterstützung einen wesentlichen Beitrag für die Durchführung der Tagung geleistet haben. Schließlich danken wir den zahlreichen in die Vorbereitung der Tagung involvierten MitarbeiterInnen, ins-besondere Herrn Eugen Mühlvenzl und Frau Elisabeth Maier-Gabriel von der Österreichischen Computergesellschaft sowie den wissenschaftlichen MitarbeiterInnen und StudienassistentInnen des Instituts für BWL und Wirtschaftsinformatik der Wirtschaftsuniversität Wien und des Instituts für Knowledge and Business Engineering der Universität Wien, namentlich stellvertretend für alle Daniela Schremser, Elisabeth Fuchs, Xiulian Benesch, Maria Madlberger und Rony Flatscher. Wir wünschen allen LeserInnen viel Freude bei der Lektüre. Wien, im Dezember 2008 Hans Robert Hansen, Dimitris Karagiannis, Hans-Georg Fill 6 INHALTSVERZEICHNIS HAUPTVORTRÄGE Die Transformation des Unternehmens in der vernetzten Gesellschaft Peter Zencke....................................................................................................................................... 17 Delivering Business Value with Modeling and Service Orientation: The Lean, Green Business Richard Mark Soley ........................................................................................................................... 18 Service Oriented Architectures - A Paradigm Change for Banking Infrastructures Hermann-Josef Lamberti ................................................................................................................... 19 KONZEPTE IS-Strategien Leitungsgremium: Karl Kurbel, Friedrich Roithmayr, August-Wilhelm Scheer A Framework for Strategic Positioning in IT Management Benjamin Müller, Frederik Ahlemann, Gerold Riempp ..................................................................... 25 Measuring Client-Vendor Distance in Global Outsourcing Relationships: A Conceptual Model Katharina Vogt, Robert Gregory, Roman Beck ................................................................................. 35 The (Lacking) Business Perspective on SOA - Critical Themes in SOA Research Goetz Viering, Christine Legner, Frederik Ahlemann ....................................................................... 45 Geschäftsmodelle für Business Services Leitungsgremium: Stefan Klein, Hubert Österle, Yves Pigneur Business Models for E-Government – The BMeG Method Gertraud Peinel, Matthias Jarke, Thomas Rose ................................................................................ 57 Do Web Services Foster Specialization? – An Analysis of Web Service Directories Christine Legner ................................................................................................................................ 67 Geschäftsmodelle für organisationsübergreifende Business Services im E-Government Isabel Mischler, Till Janner, Christoph Schroth, Beat Schmid ......................................................... 77 7 IS-Architekturen Leitungsgremium: Ulrich Frank, Heinrich C. Mayr, Robert Winter Modellgetriebene Entwicklung von serviceorientierten Architekturen Rainer Bernhard, Bernd U. Jahn ....................................................................................................... 89 Empirische Validierung von Integrationstypen am Beispiel unternehmensübergreifender Integration Stephan Aier, Bettina Gleichauf, Christian Riege, Jan Saat ............................................................. 99 Situative Methodenkonstruktion für die Projektbewertung aus Unternehmensarchitekturperspektive Stephan Aier, Christian Riege, Marten Schönherr, Udo Bub .......................................................... 109 Serviceorientierte Integration medizinischer Geräte - Eine State-of-the-Art-Analyse Christian Mauro, Ali Sunyaev, Jan Marco Leimeister, Helmut Krcmar ......................................... 119 Ein allgemeiner Ansatz zur Ableitung von Abhängigkeitsanalysen auf Unternehmensarchitekturmodellen Stephan Kurpjuweit, Stephan Aier ................................................................................................... 129 Serviceorientierte Softwarearchitekturen Leitungsgremium: Andreas Oberweis, Steffen Staab, Uwe Zdun COSMA - Ein integrierter Ansatz für das Management von Service Level Agreements bei Composite Services André Ludwig ................................................................................................................................... 141 Wiedergewinnung neuer Web Services aus vorhandenen Altsystemen Harry M. Sneed ................................................................................................................................ 151 Identity Management in Business Process Modelling: A Model-driven Approach Heiko Klarl, Christian Wolff, Christian Emig ................................................................................. 161 Model-driven Development of Serviceoriented Business Application Systems Stefan Kätker, Susanne Patig ........................................................................................................... 171 Vorgehensmodelle zur Entwicklung Serviceorientierter Softwaresysteme Oliver Thomas, Katrina Leyking, Michael Scheid ........................................................................... 181 Geschäftsprozessmanagement Leitungsgremium: Rony Flatscher, Peter Loos, Markus Nüttgens, Michael Rosemann Fallstudie zum Einsatz agiler, prozessorientierter Methoden in der Chipindustrie Mirjam Minor, Daniel Schmalen, Andreas Koldehoff ..................................................................... 193 Reducing the Variations in Intra- and Interorganizational Business Process Modeling – An Empirical Evaluation Dominic Breuker, Daniel Pfeiffer, Jörg Becker ............................................................................... 203 8 Tuplespace-based Infrastructure for Decentralized Enactment of BPEL Processes Daniel Wutke, Daniel Martin, Frank Leymann ............................................................................... 213 Auswirkungen der Serviceorientierung auf das Business Engineering: Eine metamodellbasierte Analyse Frank Höning, Volker Bach, Hubert Österle ................................................................................... 223 Verbesserung der Wirksamkeit des SOA-Design durch Referenzmodelle Oliver Holschke, Olga Levina, Jannis Rake, Philipp Offermann .................................................... 233 Process Mining zur Steuerung von Call Center-Prozessen Frank Bensberg, André Coners ....................................................................................................... 243 Wertorientiertes Prozessmanagement: State-of-the-Art und zukünftiger Forschungsbedarf Jan vom Brocke, Christian Sonnenberg, Alexander Simons ............................................................ 253 Collaborative Services / Services für die Kooperation Leitungsgremium: Norbert Gronau, Michael Koch, Gerhard Schwabe, Volker Wulf Presence Signalling in Unified Communication Systems – A Framework for Customisation in Context Kai Riemer, Stefan Klein .................................................................................................................. 265 Supporting Research Collaboration - On the Needs of Virtual Research Teams Jens-Henrik Söldner, Jörg Haller, Angelika C. Bullinger, Kathrin M. Möslein ............................. 275 Non-optimized Temporal Structures as a Failure Factor in Virtual Teams Felix Köbler, Marilyn Tremaine, Jan Marco Leimeister, Helmut Krcmar...................................... 285 Content-based Community Detection in Social Corpora Annette Bobrik, Matthias Trier ........................................................................................................ 295 Mine, Yours…Ours? Designing for Principal-Agent Collaboration in Interactive Value Creation Jasminko Novak ............................................................................................................................... 305 eCollaboration and Productivity Katarina Stanoevska-Slabeva .......................................................................................................... 315 Services für Risiko- und Compliancemanagement Leitungsgremium: Günter Müller, Stephanie Teufel, A Min Tjoa Integrated Information Security Risk Management - Merging Business and Process Focused Approaches Sebastian Sowa, Lampros Tsinas, Hanno Lenz, Roland Gabriel .................................................... 327 9 Eine risikobasierte Methode für Implementierung und Betrieb von GMP-konformer IT-Infrastruktur am Beispiel User- und Identity Management Peter Brandstetter, Barbara Ginda, Stefan Tautscher .................................................................... 337 Continuous Compliance Monitoring in ERP Systems - A Method for Identifying Segregation of Duties Conflicts Patrick Wolf, Nick Gehrke ............................................................................................................... 347 A Risk Based Approach for Selecting Services in Business Process Execution Stefan Sackmann, Lutz Lowis, Kai Kittel ......................................................................................... 357 Integration of an IT-Risk Management / Risk Assessment Framework with Operational Processes Louis Marinos, Lutz Kirchner, Stefan Junginger............................................................................. 367 Internal Controls Scripting Language (ICSL): Grundzüge einer Instruktionssprache für Interne Kontrollen Tom Beiler, Markus Böhm ............................................................................................................... 377 Wertschöpfungsnetzwerke Leitungsgremium: Helmut Krcmar, Susanne Leist, Maria Madlberger IT-gestützte Wertschöpfungspartnerschaften zur Integration von Produktion und Dienstleistung im Maschinen- und Anlagenbau Philipp Walter, Nadine Blinn, Michael Schlicker, Oliver Thomas .................................................. 389 Vertical Integration and Information Sharing - An Empirical Investigation in the German Apparel Industry Christoph Goebel, Hanna Krasnova, Henning Syllwasschy, Oliver Günther ................................. 399 Webservices für die Verrechnung in Wertschöpfungsnetzwerken auf Basis vollständiger Finanzpläne Jörg Becker, Ralf Knackstedt, Martin Matzner ............................................................................... 409 Science of Services / Wissenschaftstheorie Leitungsgremium: Werner Esswein, Klaus Tochtermann, Stephan Zelewski Dokumentation und Fortschrittsbestimmung von Methoden zur Gestaltung soziotechnischer Systeme am Beispiel einer Methode zum Service Engineering Stephan Aier, Christian Fischer ...................................................................................................... 421 Moden in der Wirtschaftsinformatik – Wissenschaftstheoretische und wissenschaftspraktische Überlegungen zu einer von Hypes geprägten Disziplin Hanno Schauer, Carola Schauer ..................................................................................................... 431 Towards a Research Method for Theory-driven Design Research Andreas Gehlert, Michael Schermann, Klaus Pohl, Helmut Krcmar .............................................. 441 10 Beurteilungskriterien internationaler Fachzeitschriften im Umfeld der Wirtschaftsinformatik Karl Kurbel, Ilja Krybus, Ivo Stankov ............................................................................................. 451 Rechtsfragen, geistiges Eigentum Leitungsgremium: Walter Blocher, Ulrich Hasenkamp, Andreas Wiebe Auswirkungen externer Kontrollmechanismen auf die Gestaltung und Implementierung von ERP-Systemen Axel Winkelmann, Malte Stockmann, Jörg Becker .......................................................................... 463 Die Auswirkungen von sozialen Motiven auf die Rechts- und Haftungssituation am Beispiel offener Netze Reto Mantz ....................................................................................................................................... 473 Grenzen der datenschutzrechtlichen Verantwortlichkeit in einer Welt des „Ubiquitous Computing“ Jürgen Müller................................................................................................................................... 483 Filesharing und Tauschbörsen: Die Haftung des Anschlussinhabers (auf Unterlassung) unter dem Gesichtspunkt der Störerhaftung - Ein Lösungsvorschlag zwischen Rechtsprechung und Realität Jan Morgenstern .............................................................................................................................. 493 Performance & Monitoring, IT-Controlling Leitungsgremium: Ulrike Baumöl, Walter Brenner, Günter Haring Produktionsplanung und –steuerung der IT-Service-Provisionierung Nico Ebert, Alexander Vogedes, Falk Uebernickel ......................................................................... 505 Controlling im Wissensmanagement - Konzeption eines allgemeinen Ansatzes zur Erfolgsbewertung im Wissensmanagement Franz Lehner, Nadine Amende, Stephan Wildner, Nicolas Haas .................................................... 515 Leistungsorientierte Steuerung der Informationsversorgung im Rahmen der Qualitätssicherung in Dienstleistungsnetzwerken Reinhard Jung, Martina Meschke .................................................................................................... 525 Vorgehensmodell zur Entwicklung von Reifegradmodellen Ralf Knackstedt, Jens Pöppelbuß, Jörg Becker ............................................................................... 535 Determining the Impact of Business Strategies Using Principles from Goal-oriented Measurement Victor Basili, Jens Heidrich, Mikael Lindvall, Jürgen Münch, Carolyn Seaman, Myrna Regardie, Adam Trendowicz............................................................................................................................. 545 Benefits Management - A Literature Review and Elements of a Research Agenda Jessica Braun, Frederik Ahlemann, Gerold Riempp ....................................................................... 555 11 Software als Service Leitungsgremium: Peter Buxmann, Roland Holten, Wolfgang König, Dirk Stelzer Welche Treiber lassen SaaS auch in Großunternehmen zum Erfolg werden? Eine empirische Analyse der SaaS-Adoption auf Basis der Transaktionskostentheorie Alexander Benlian, Thomas Hess .................................................................................................... 567 Prüfkriterien für Geschäftsmodelle im Kontext von Software as a Service Matthias Biggeleben, Harald Kolbe, Markus Schäfermeyer, Helena Vranesic .............................. 577 Organisationskonzepte für Business Services Leitungsgremium: Arnold Picot, Rudolf Vetschera, Christof Weinhardt Data Governance: Organisationskonzept für das konzernweite Datenqualitätsmanagement Kristin Weber, Boris Otto, Hubert Österle ...................................................................................... 589 Strategic Behavior in Service Networks under Price and Service Level Competition Clemens van Dinther, Benjamin Blau, Tobias Conte ...................................................................... 599 Quality of Service Delivery: Economic Effects of Multi-Homing and Content Delivery Networks Thorsten Hau, Jochen Wulf, Rüdiger Zarnekow, Walter Brenner ................................................... 609 TECHNOLOGIEN Mobile Systeme Leitungsgremium: J. Felix Hampe, Gabriele Kotsis, Franz Lehner, Klaus Turowski Ein mobiles Spiel wird zum Eventmarketinginstrument Christoph Göth, Raphael Joss, Gerhard Schwabe .......................................................................... 621 Service-based Interactive Workflows for Mobile Environments Sonja Zaplata, Dirk Bade, Ante Vilenica ......................................................................................... 631 An Interactive Remote Visualization System for Mobile Application Access Marcus Hoffmann, Jörn Kohlhammer ............................................................................................. 641 Klassifikation und Implementierung von Location Based Airport Services zur situierten Unterstützung von Passagierprozessen an Flughäfen Stefan Hausmann ............................................................................................................................. 651 12 Semantische Informationssysteme Leitungsgremium: Dieter Fensel, Knut Hinkelmann, Rudi Studer A Model-driven Approach to enable Access Control for Ontologies Willy Chen, Heiner Stuckenschmidt ................................................................................................. 663 Management von Modellbeziehungen mit semantischen Wikis Michael Fellmann, Oliver Thomas .................................................................................................. 673 Process-oriented Semantic Business Modeling Ivan Markovic, Florian Hasibether, Sukesh Jain, Nenad Stojanovic .............................................. 683 IT-Infrastruktur für Business Services Leitungsgremium: Stefan Eicker, Torsten Eymann, Stefan Koch, Erich Schikuta Zielorientierte Datenmodellierung für ITIL-basierte inter-organisationale Configuration Management Databases Wolfgang Hommel, Silvia Knittl ...................................................................................................... 695 Konzeptionelle Metamodelle von IT-Governance-Referenzmodellen als Basis der Kombination und Integration in einer Multi-Modell-Umgebung Stefanie Alter, Matthias Goeken ...................................................................................................... 705 Softwareentwicklungsmethoden Leitungsgremium: Georg Herzwurm, Matthias Jarke, Gertrude Kappel, Frank Leymann Adjustment Strategies for Managing Unanticipated Changes in Software Development Processes Katja Andresen, Norbert Gronau..................................................................................................... 717 Requirements Engineering for Hybrid Products as Bundles of Hardware, Software and Service Elements – A Literature Review Marina Berkovich, Sebastian Esch, Jan Marco Leimeister, Helmut Krcmar.................................. 727 Reengineering Deprecated Component Frameworks: A Case Study of the Microsoft Foundation Classes Robert Neumann, Sebastian Günther, Niko Zenker ......................................................................... 737 Agenten-, Multiagententechnologien Leitungsgremium: Stefan Kirn, Winfried Lamersdorf, Jörg Müller Cooperation Mechanisms for Monitoring Agents in Service-oriented Architectures André Miede, Jean-Baptiste Behuet, Nicolas Repp, Julian Eckert, Ralf Steinmetz ......................... 749 Georeferenzierung in der Logistik Michael Schuele, Paul Karaenke, Achim Klein ............................................................................... 759 13 From a Research to an Industry-Strength Agent Platform: JADEX V2 Alexander Pokahr, Lars Braubach .................................................................................................. 769 RFID und Ubiquituous Services Leitungsgremium: Alois Ferscha, Elgar Fleisch, Kai Rannenberg RFID In Reverse Logistics – Research Framework and Roadmap Lars Thoroe, Adam Melski, Matthias Schumann ............................................................................. 781 Sicherheit Leitungsgremium: Claudia Eckert, Günther Pernul, Gerald Quirchmayr Collaborative Penetration Testing Severin Winkler, Christian Proschinger .......................................................................................... 793 Automating Periodic Role-Checks - A Tool-based Approach Ludwig Fuchs, Christian Müller ...................................................................................................... 803 ANWENDUNGEN Innovationsmanagement und Produktentwicklung Leitungsgremium: Nikolaus Franke, Oliver Günther, Kathrin Möslein, Frank Piller Fachliches Innovationsmanagement als strategischer Erfolgsfaktor in der IT-Beratung und Systemintegration Sean Eikenberg, Stephan Melzer, Ulrike Lechner ........................................................................... 815 Service Innovation with Information Markets Stephan Stathel, Clemens van Dinther, Anton Schönfeld ................................................................ 825 Embedded Open Toolkits for User Innovation: Postponing new Product Development Decisions into the Customer Domain Uwe Gross, David Antons ................................................................................................................ 835 Semantische Kunden-Feature-Objekte in erweiterten Digitalen Produktmodellen Heiner Lasi, Hans-Georg Kemper ................................................................................................... 841 Zum Einsatz von Social Networking Services im Unternehmen Alexander Richter, Michael Koch .................................................................................................... 851 From Idea Management Systems to Interactive Innovation Management Systems: Designing for Interaction and Knowledge Exchange Bastian Bansemir, Anne-Katrin Neyer............................................................................................. 861 AUTORENVERZEICHNIS ................................................................................... 871 14 HAUPTVORTRÄGE DIE TRANSFORMATION DES UNTERNEHMENS IN DER VERNETZTEN GESELLSCHAFT Peter Zencke1 Die Transformation der Wirtschaft in ein Netzwerk von spezialisierten, kollaborativen Unternehmen ist in vollem Gange. Dies gilt für große, mittlere und kleine Unternehmen. Informationstechnologie ist dabei ein wesentlicher Treiber der Veränderung. Die Leistungsfähigkeit der IT-„Rohstoffe“ Rechenleistung, Speicherplatz sowie Bandbreite und Dichte von Netzwerken nimmt weiterhin exponentiell zu – während die Preise pro Ressourceneinheit in gleichem Maße fallen. Durch diese Entwicklung haben sich ganz neue Möglichkeiten für den Einsatz und die Verwendung von Software ergeben. Die wachsende Bandbreite des Internets macht es beispielsweise möglich, dass selbst integrierte betriebswirtschaftliche Software-Lösungen in bisher nicht möglichen Volumina als Services über das Internet bereit-gestellt und konsumiert werden können. Die Transformation der Wirtschaft verändert das Unternehmen als Ganzes: Die Zusammenarbeit der Menschen und den Ablauf der Geschäftsprozesse in den Systemen und Maschinen. Ob kreativer Designprozess oder hochautomatisierter Abwicklungsprozess, Aufgabe betrieblicher Informationssysteme wird es sein, die Transformation und Vernetzung ganzheitlich zu unterstützen und voranzutreiben. 1 Mitglied des Vorstandes und Leiter des Unternehmensbereichs Research and Breakthrough Innovation der SAP AG 17 DELIVERING BUSINESS VALUE WITH MODELING AND SERVICE ORIENTATION: THE LEAN, GREEN BUSINESS Richard Mark Soley1 It seems that Service Oriented Architecture (SOA), Green Computing and Business Process Management (BPM) are to be this year‘s hot buzzwords, rather than well-de ned, meaningful and valuable parts of the business landscape. Before the terms fade away completely, perhaps we should agree what‘s valuable about the move to BPM & SOA and how they support our business strategy, including both bottom lines (pro t and environmental impact). Implementing that strategy, to lean our processes and green our processes, will require an approach to architecture & design of the business that outlasts today‘s buzzwords – Model Driven Architecture (MDA). The SOA Consortium is making great strides in de ning SOA to be a valuable business strategy for business agility; meanwhile the BPM Roundtable Forum approaches Business Process Management from the standpoint of improving and optimizing business processes for both bottom lines. The Object Management Group (OMG) is making headway on modeling standards (based on the MDA Initiative) for services, and maturity models to help organizations optimize their business processes both along green (GCMM) and lean (BPMM) lines. Dr. Soley will give an overview of the OMG‘s MDA efforts in business modeling to support business capabilities, as well as the efforts of OMG‘s SOA Consortium and BPM Roundtable to lead the way to successful, lean, green processes. 1 Chief Executive Officer Object Management Group, Inc. (OMG) 18 SERVICE ORIENTED ARCHITECTURES - A PARADIGM CHANGE FOR BANKING INFRASTRUCTURES Hermann-Josef Lamberti1 Modernes Bankgeschäft ist ohne den Einsatz von Technologie undenkbar. In sich schnell verändernden Märkten ist Flexibilität ein wesentlicher Erfolgsfaktor. Nur so können steigende Volumina und neue Kundenanforderungen zeitnah bedient werden. Vor diesem Hintergrund folgt die Deutsche Bank dem SOA-Ansatz mit dem Ziel einer „Service Oriented Organization“. Auf diese Weise wird Komplexität reduziert und die Flexibilität gewonnen, die vorhandene Bank-IT schnell und kostengünstig an neue Bedürfnisse anzupassen. Dabei werden interne Teams an inhaltlichen Kompetenzen ausgerichtet und unterstützen unterschiedliche Geschäftsbereiche. Das Ziel ist größtmögliche Flexibilität, so dass benötigte Komponenten bei Bedarf in Echtzeit ein- und ausgeschaltet werden können. 1 Mitglied des Vorstandes und Chief Operating Officer der Deutsche Bank AG 19 WISSENSCHAFTLICHE BEITRÄGE IS-STRATEGIEN Informationssysteme (IS) ermöglichen innovative Geschäftskonzepte und Geschäftsmodelle, aber sie begrenzen auch Handlungsoptionen und Entwicklungsmöglichkeiten. Ob ein Unternehmen seine Visionen in eine Strategie und Operationen umsetzen kann, hängt nicht zuletzt davon ab, ob seine Informationssysteme dies unterstützen. Die IS-Strategie ist somit von zentraler Bedeutung. Die Serviceorientierung spielt heute eine wichtige Rolle, erstens aufgrund der Transformation zahlreicher Unternehmen vom Produkt- zum Servicegeschäft, das ohne IS-Unterstützung nicht denkbar ist, zweitens aufgrund serviceorientierter IS-Architekturen, die flexibel anpassbare Systeme erlauben, und drittens in Form des Wandels auf dem Markt für IS-Dienstleistungen. Wurden früher IS betriebsintern oder von heimischen Softwarefirmen entwickelt, bieten ITDienstleister in Indien oder Osteuropa zunehmend nicht nur die Erstellung, sondern auch den Betrieb von IS und die Abwicklung ganzer Geschäftsprozesse an. Leitungsgremium: Karl Kurbel, Europa-Universität Viadrina Frankfurt (Oder) (Federführender) Friedrich Roithmayr, Johannes Kepler Universität Linz August-Wilhelm Scheer, Universität des Saarlandes Programmkomitee: Wolfgang Mathera, SAP Business School Vienna Hubert Österle, Universität St. Gallen Bodo Rieger, Universität Osnabrück Susanne Robra-Bissantz, Technische Universität Braunschweig Detlef Schoder, Universität zu Köln Herman Sikora, Raiffeisen Rechenzentrum Rolf Wigand, University of Arkansas A FRAMEWORK FOR STRATEGIC POSITIONING IN IT MANAGEMENT Benjamin Müller, Frederik Ahlemann, Gerold Riempp1 Abstract Today IT executives need to define their IT strategy and align it with the overall corporate strategy. However, research offers them little advice with respect to determining the strategic position of their IT departments as a basis for strategic planning. Based on a review of concepts from general management, this paper proposes a framework for strategic positioning in IT management. The authors analyzed the general management literature. Additionally they observed three companies’ approaches to strategic positioning as a basis to building and refining their framework. The results suggest that strategic positioning is both a necessary and valuable task for IT managers. This strategic positioning should be based on a frame of reference that structures and integrates elements of benchmarking, competitive, and contextual analysis. 1. Introduction Contemporary CIOs face significant challenges such as the availability of new IS architectures (i.e., SOA) and their impact [13], an ongoing trend towards outsourcing [5], and the separation of demand and supply [17]. This forces IT departments to focus on servicing business units and to adopt market-oriented structures of sourcing and delivery [50]. A central challenge in this new environment is the alignment between IT and business [28]. Therefore, IT departments today are strongly involved in the planning and execution of their companies’ business strategy [33, 37, 47]. While strategic planning covers the question of “where do we want to be”, translating these strategic goals into action programs for the IT department requires them to also know where they are today (current position). While IT benchmarking can help [48], it seems insufficient to resolve the issue of positioning because it normally does not capture the strategic context of a company. Since strategic positioning is not new, we transfer concepts from general management into IT management (ITM). This has the potential of increasing the alignment, since IT and business are now talking the same “strategic language”. This research effort will lead to understanding the process and benefits of positioning IT departments strategically within corporations and beyond. In this paper, as a first step towards an understanding of strategic positioning in ITM (SPITM), we analyze SPITM’s fundamental elements and their relations. This serves as a basis for deriving a framework for SPITM and an according assessment. We have chosen this approach to allow both science and practice to reuse the model-inherent knowledge of such a framework [18, 40]. Following Gregor [19], we thus provide a theory for analyzing the phenomenon of SPITM. 1 Institute of Research on Information Systems, European Business School, Rheingaustraße 1, 65375 Oestrich Winkel 25 The next section introduces a review of the literature dealing with strategic positioning, both in general management and ITM. After deducing a set of typical elements that are used for strategic positioning in general management, we test this set by means of case study research in three SPITM cases. The results are used for the construction of our final framework. The paper concludes by discussing future research opportunities and its limitations. 2. Foundations In their effort to position themselves strategically, IT departments are confronted with the same competitive forces that drive businesses in general. In general management, methods of formal planning for the purpose of strategic positioning (SP) are well established [e.g. 4]. We propose the transfer of elements of such SP methods to ITM. Based on a review of literature, this chapter will briefly highlight these elements and show how they constitute SPITM. 2.1. Frame of Reference Hopfenbeck describes the entire approach of strategic management as a frame of reference itself [22]. In this capacity, it is described as supporting executives in the identification of challenges as well as in the formulation of appropriate responses. Based on this, the approach to structure general management has already been established in the literature [9, 39]. The rationale for the use of frames of reference (FoR) in this domain is their ability to explicate decision-makers’ shared perception of the relevant fields of action and decision-making [38]. Various authors have proposed FoRs for ITM. Earl [16] separates ITM into information technology, information systems, and information management, while others look at ITM as a departmental strategy [8] or differentiate between offerings and resources needed for their production [31]. A comprehensive approach is done by Riempp et al. [38], who integrate the current state-of-the-art research with their own empirical work. They extend the above arguments by highlighting the importance of an FoR to make ITM both measurable and comparable. To summarize, there are three main arguments for using an FoR in the context of SPITM: (1) the ability to structure ITM to ensure completeness and shared perception, (2) making the underlying activities both measureable and comparable by capturing their contents and relations, and (3) the need for a reference point to integrate SP activities, especially the processes and results, with ITM. 2.2. Benchmarking To assess the strategic position of an IT department, data needs to be gathered about its structure and its environment. Mintzberg and Lampel [29] describe this as the positioning school, rooted in the works of authors like Hatten and Schendel [20] and “popularized” by Porter [34]. Market forces influencing an enterprise [35] and their influence on strategy formulation [14] need to be considered. While these competitive forces drive businesses, they are also a source of information. In this context, benchmarking [36] is a technique that is in use for almost 70 years. A vast body of knowledge has evolved around benchmarking [12, 6, 1, 44]. Today, benchmarking is also used in ITM [21] and has established itself in this domain [2]. So far, it has mainly focused on products and services – mainly based on cost and other quantitative measures – and has only shifted towards processes in recent years. Benchmarking for strategy has not yet been fully embraced within IT [11]. However, recent efforts point in this direction [32]. We suggest that SP in ITM needs to capture both qualitative and quantitative external information. Based on benchmarking’s potential to generate rich sets of such data, also in strategic settings, it is the tool of choice in this context. However, a strategic approach to external benchmarking requires sufficient internal anchorage in order to fully support SP. For this purpose, internal data, both quantitative and qualitative, needs to be captured and structured using the same FoR in order to be comparable to the external data from the peer group. 26 2.3. Competitive Analysis However, the interpretation of benchmarking data needs additional background. One source for this is the analysis of the environment of a company or, as in our case, the IT department. Since the work of Porter [35], the concept of competitive analysis has been widely accepted [22, 42], particularly in the context of strategy development [7, 10]. The concept of competitiveness is broadened by Wöhe and Döring [49], who point out that customers and suppliers also need to be taken into account, along with a company’s regulatory environment. Many authors have shown how IT and IS affect the competitive environment of companies [e.g. 8], but contemporary IT departments themselves require competitive analysis to account for their own drivers of competitive pressure. Zarnekow et al. [50] suggest that the modern value chain of IT departments is heavily reliant on suppliers. In this context, suppliers can become competitors, attracting demand from customers. This is especially true when an internal IT department starts to make its products and services available beyond the organization. Such an offering also calls for an analysis of customers in order to tailor products to their needs and changing requirements. To ensure that these perspectives are adequately taken into account in the strategic planning process of an IT department, they need to be integrated into an assessment of the strategic position. 2.4. Contextual Analysis While the external perspective constitutes an important set of information, general management has realized that external opportunities and threats need to be considered as well. Some authors include core competencies [49]. This concept, known as SWOT analysis and is mainly attributed to the work of Andrews [3], aims at a fit between the internal and external factors as a requirement for strategy formulation [29]. This perspective is widely accepted in the literature [22, 42]. Transferring this concept to ITM, the sections above already introduced the external perspective. To complete the set of relevant information, internal factors need to be taken into account. Building on general management, positioning in ITM has to take into account the profile of the IT department. Exemplary aspects are the role of the IT department in the company (e.g. minimize cost), its strengths and weaknesses (e.g. competent people), and the alignment with corporate strategy [47]. The importance of these aspects for SPITM is based on the need to interpret the data generated through benchmarking and the knowledge of the competitive environment on the basis of current capabilities and aims. The ability to correctly relate all this information to each other, in turn, is realized by employing a common FoR. 3. Methodology To analyze SPITM, we first reviewed the literature, following a concept-centric approach [45], which focused on established SP concepts in general management that are relevant to positioning an IT department. We then conducted three case studies to gain insights into which of the concepts in the literature are applied in SPITM practice. We also gathered the case participants’ input on the relevance and viability of the various concepts and studied their contribution to the overall SP process. The reason for choosing a case study approach is its ability to capture rich details, even in such complex domains as IT management and IT assessment [27]. In the cases, variation has been emphasized over replication to ensure the capture of different settings in which to observe the SP process. If any of the concepts identified during our literature review were used in practice, we documented their use. If an element was not used, we analyzed alternative approaches. At the end of each case, we conducted a workshop with IT managers in order to gain deeper insight into the reasons for the presence or absence of certain concepts. All materials were documented2) and analysis of the qualitative data was conducted following Schmidt 2 Details about the cases and their analysis are available from the authors on request. 27 [41]. Based thereon, we developed a SPITM framework that aggregates the concepts found in literature and practice. This framework not only lists the patterns, but also looks at the relations between them. Such an approach of classifying specific characteristics by summarizing commonalities found in discrete observations is in line with our aim of constructing a theory for analyzing the phenomenon of SPITM [19]. 4. Field Work In our case studies, we partnered with IT departments (ITD) that had expressed interest in SP. These companies either had contact to us via a benchmarking study we conducted in the past or joint project work. The sample thus represents a convenience sample. We participated in the ITDs’ strategic planning efforts and observed their SP activities. The following sections briefly introduce the host companies and highlight our main findings. 4.1. Case Studies Our first case study was the ITD of a large real estate company that is part of a large European trust and has also started serving external customers. The CIO and his directors for projects and operations faced the need to demonstrate IT’s contribution to the company’s goal achievement. In the assessment of the ITD’s strategic position, we observed an initial approach to SP that was based solely on benchmarking. At a later stage, they realized that additional information was needed to correctly interpret the data from benchmarking. This led to the adoption of an FoR and the introduction of elements of competitive analysis. At this stage, the approach did not yet include contextual factors; the need to do so was uncovered by the analysis of the data (e.g. the analysis of the IT project management processes). While the benchmark and competitive analysis revealed that the company was in an unfavorable position, the project success rate outperformed that of peers. Accounting for the capabilities of the experienced project managers, which had not been taken into account because they were not being documented, explained this contradiction. The project allowed the ITD to position itself differently and integrate these results into its strategic planning. Our second case study was the ITD of an international bank with offices in several countries. It is owned by a large automobile manufacturer. In a project to redefine the strategy of the whole bank, the ITD also went through the process of developing its new strategy. The bank chose balanced scorecards and strategy maps as tools for the strategy development and implementation. In the first phase of the overall project, the ITD sought to assess its current strategic position in the form of workshops with discussions among IT managers, guided by external consultants. Since the results remained too vague, the next step was the use of an FoR introduced by the consultants as well as the consideration of existing benchmarking data, both of which brought more objectivity and result orientation into the SP process. The contextual perspective emerged in the subsequent exchange with the project teams of other departments and the CEO’s office. As a result of this phase, the ITD clarified its current strategic position and formulated the desired future characteristics of its position in the bank. This was a direct input for the next phase of the project. We conducted our third case study in the ITD of an Austrian utility company. We observed an assessment and SP through conversations with project team members and analysis of project documentation. The assessment and positioning was a component of a project aiming at reorganizing the ITD. This was made necessary through internal requirements (based on an employee survey) as well as external pressure based on perceived high costs. The latter led the ITD to the adoption of an FoR for a service-oriented organization. The analysis of the status quo was conducted as part of a benchmarking initiative. Besides gathering data in the structures imposed by the FoR, the derivation of target values to achieve a competitive cost level was a motivation for pursuing a benchmarking approach. This introduced elements of a competitive analysis. The contextual element was integrated via document analysis and interviews. The project 28 was successfully concluded and the new ITD organizational structure of the ITD implemented. Results of the SP proved to be valuable in attaining buy-in from the business units of the company. 4.2. Interpretation of Case Studies When integrating the empirical observations and comparing them to the relevant general management literature, the following conclusions can be drawn towards a framework for SPITM: • All the cases relied on a FoR to structure and integrate their activities. It was also used to assign responsibilities and to check for completeness. This is in line with the literature (section 2.1.). • Benchmarking initiatives were part of all three cases. While one project (case 1) started off with benchmarking results, the others integrated benchmarking in later phases. Regardless of this, all the executives involved regarded comparable data as an essential aspect for SP. • All cases paid particular attention to external factors to account for their role in SP. • While one case (case 1) initially excluded a contextual analysis, the need to interpret the data and information generated in the positioning project proved the importance of these considerations. The other projects included capabilities among other factors. The elements derived from the literature review proved suitable to capture the strategic position of an ITD. We neither observed additional behavior that could not be described by means of the elements introduced in chapter 2, nor did we experience a case in which an element was systematically excluded from SP. Even though some elements were initially not considered (cases 1 and 2), the need to reintegrate them at a later point in the project illustrated their importance. 5. Framework for Strategic Positioning in IT Management Building on these findings, our proposed framework consists of five elements, as outlined in figure 1. The elements correspond to the patterns we have identified in our preceding literature review and empirical observations. The subsequent discussion presents each framework element by defining it, explaining its relationships to other elements, and relating it to the cases introduced above. 5.1. The suggested Framework The basis for SPITM is the usage of a FoR. It facilitates structuring all other elements, ensuring that data and information from these separate views on an ITD’s strategic position can be integrated. It is also needed to ensure the ability to conduct an SP in a distributed manner, i.e. to assign aspects to different roles and reintegrate them later. The core element for the SP is benchmarking. It is an established approach for generating data needed for comparison. For interpretation, the benchmarking needs to be extended by contextual and competitive analysis. These will help to correctly interpret the benchmarking. They are also partially dependent on benchmarking as a source of data. Aggregating all the information will ultimately constitute the strategic position of an ITD. Figure 1. Framework for strategic positioning in IT management While the structure of our framework is derived from the literature and the cases discussed above, the general structure of the approach can also be linked to general management. The strategic issue 29 analysis [23] aims at identifying, analyzing, and resolving strategic issues by methods centered around the classical SWOT elements. La Roche [26] proposes a flow chart that illustrates how competitive and contextual factors help establish strategic positioning. This position is the basis for the development of strategic alternatives and strategic decisions. Based on our analysis, positioning in ITDs is currently approached with a similar logic, despite the existence of other approaches in general management [26]. While scarce, there are also examples in IS literature. Kovacevic and Majluf [25] suggest a six-staged approach to ITM. They point to firm strategy, external analysis, and internal scrutiny as the basis for formulation and assessment of IT/IS strategy. However, they do not specify a data source for the planning approach and do account less for contextual factors. To further illustrate our framework, the following sections will elaborate on its elements and their interrelations, discuss exemplary approaches present in theory or practice, and establish quality criteria. Each section concludes by relating the element to observations we made during our cases. 5.2. Frame of Reference (FoR) Much work has been done in the field of providing a structure to the processes of ITM. However, most of this work focuses on the process of strategic planning, not on the general structure and contents of IT/IS strategy itself [43]. However, in the context of SP, this structure is needed as a core element of positioning efforts for reasons of inter-temporal and inter-subject comparability. SP can only provide insights into the current state and the changes of an ITD if it is based on a stable structure across entities and time. To date the work on such a general structure of ITM has been limited (section 2.1.). Moreover, reviewing the literature has shown that most of the approaches currently used to structure ITM are based on theoretical reasoning. Only Riempp et al. [38] tested their suggested FoR by means of three design science evaluation cycles. Based on the analysis of this element in the literature as well as from interviews and observations made during our case studies, we are suggesting a set of quality criteria for an FoR: (1) adequacy to and coverage of the realm of ITM, (2) reflection of real-world organizational structures as well as established disciplines and roles, (3) completeness of elements and ease of use to facilitate communication, (4) depiction of relevant fields of action and decision-making and their interrelation, (5) reflection of the market-oriented transition of IT departments, (6) acceptance by IT managers, (7) suitability to assess and compare ITM across several companies, and (8) suitability to assess and compare ITM across several time periods. Looking at the cases, we acknowledge that an academic framework is not the only one that can be used. As long as they fulfill the quality criteria suggested above, other approaches can also be used. 5.3. Benchmarking Drew [15] divides a benchmarking initiative into five phases. The first, the definition of what needs to be benchmarked in the context of SPITM is outlined by the FoR. It serves as a general guideline for the identification of required units of analysis and can be used to structure the competitive analysis. For each element of the FoR, relative key performance indicators (KPIs) and metrics are defined and applied for the own organization and those of the peer group. Useful qualitative information may be collected to support this benchmarking process, too. According to our research, benchmarking can be successfully implemented provided the following have been done: (1) meaningful metrics have been defined for all elements of the FoR, (2) the FoR and the metrics are accepted by the IT executives as well as the peer group, and (3) the benchmarking is properly implemented, in the sense that a peer group of comparable organizations has been found and that it consists of a sufficiently large number of participants. The analysis and interpretation of the data, Drew’s forth phase, is one of the most important steps. Our cases have shown that even though the immediate comparison of external and internal KPIs based on benchmarking may appear promising, their assessment does not allow for final 30 conclusions about the general performance of an ITD; this is only possible when the findings are interpreted in the light of additional contextual information, which helps explain why specific KPIs are what they are. This is why our framework includes an external and internal view. 5.4. Competitive Analysis Many ITDs and their business counterparts coordinate the delivery of IT through market-like interfaces. Thus, contractual arrangements reach the same level of detail, controlling mechanisms are comparable to those used for external service providers, and service prices need to be competitive. Since the business gains transparency about service scope, quality, and prices, an ITD needs to differentiate itself from external providers (e.g. providing better IT support due to higher process competence). Neither service quality nor service prices can be judged on their own. In order to come up with a valid assessment of an ITD’s performance, an external perspective is necessary. A possible way to integrate a competitive perspective into SP is a SWOT analysis. This needs to consider the opportunities and threats, along with the general factors determining the competitive environment. These include e.g. an analysis of the portfolio of products and services compared to competitors’ portfolios and customer needs or the price and quality levels of products and services. The literature suggests limiting such an analysis to ten factors [22]. To reduce the extent and the complexity of a competitive analysis, the selection of appropriate aspects to consider should be guided by the following criteria: (1) does the analysis cover all relevant aspects derived from current IT strategy, (2) can the required information be captured at a sufficiently reliable level, (3) which additional information is needed to interpret external, relative measures, (4) are legal requirements and regulations taken into account, (5) what are sources of change in the relevant environment, and (6) are the sources of information and data accessible. Looking at our cases, a major factor requiring elements of competitive analysis in SPITM is product and service costs. Even in companies in which IT is regarded as strategically important (e.g. case 2), the ITD needed to demonstrate competitive cost structures to justify internal production. 5.5. Contextual Analysis The investigation of relevant contextual factors requires extensive data gathering mainly targeting the ITD’s strengths and weaknesses. This will mostly involve document analysis and interviews. Documents of relevance are e.g. strategy documents or enterprise architecture models. Interviews may grasp factors that are not codified, e.g. cultural factors or plans that have not been documented. The aim of this analysis is to look at factors that help understanding how the ITD fits to its internal context. These factors may differ in nature and are strongly company-specific. However, during our research, we encountered a number of factor groups that appear to play an important role when analyzing an ITD’s position: (1) Strategic factors include information about past and present IT strategies or strategic planning and steering processes at the levels of the department and the organization. (2) Financial factors cover budgeting and investment decisions and information concerning decision-making and approval processes. (3) Regulatory factors play an increasingly important role. As a part of the contextual analysis, this aspect focuses on what operational implications regulations have for the organization. (4) Human resources factors influence the sphere for strategic action, e.g. when qualification levels of the workforce directly impacts the type of technologies that may be applied in the organization, or when competencies of the people working in an ITD are a central determinant for its success. Finally, (5) transitional factors are relevant for understanding an ITD’s strategic position. Ongoing business transformations, reorganization initiatives, or mergers and acquisitions may significantly impact all levels of the IT value chain – processes, applications and infrastructure. This element of SP is also structured using the same FoR. It serves as a general guideline for data gathering and analysis, assuring completeness and coherence. 31 From our research (e.g. case 1), we conclude that an adequate inside view has been constructed when all significant findings from the outside view can be explained using contextual factors and a consensus has been established that the contextual factors properly explain the ITD’s position. 5.6. Strategic Positioning (SP) When benchmarking, competitive analysis, and contextual analysis are at hand, the final step towards SP is the reintegration of the data and information generated towards a comprehensive and consistent profile of an ITD – its strategic position. While not being defined explicitly in general management literature, our literature study and empirical work produced a set of relevant aspects that an SP should cover. These are depicted in table 2 along with some examples. Table 2. Exemplary aspects of the strategic position of IT departments Examples Aspect cost minimizer, business enabler, innovator Role business monarchy, IT monarchy, federal, … Governance (e.g. following Weill and Ross [46]) central, local, within business units, shared Organization services; also cost vs. profit center Budgeting process top-down, bottom-up, joint, … with business units, ITD, split budgets, … Budget allocation department exclusively serving the company, Competitors or own company also serving third parties, … market structure highly standardized and codified, artesian, … Processes strong outsourcing, selective outsourcing, … Supply strategy Derived from elements contextual analysis contextual analysis, competitive analysis, benchmarking benchmarking, contextual analysis Cases 1, 2, 3 1, 2, 3 contextual analysis contextual analysis contextual analysis, competitive analysis benchmarking, contextual analysis benchmarking, contextual analysis 1, 2, 3 2, 3 1, 3 2, 3 1, 3 1 SP will have to take into account the ITD’s role. Many decisions in ITM need to be framed with respect to the ITD’s perceived or intended role. If, as in case 1, the department wants to position itself as a business enabler, the KPIs related to cost have a different meaning compared to the role of a cost minimizer. Similar logic applies to the governance aspects of an organization. These examples, along with the aspects presented in table 2, illustrate the interdependency of the aspects of SPITM, and illustrate the need for a multifaceted approach to SPITM, as introduced above. The contribution of benchmarking as well as the contextual and competitive analyses is integrated along the lines defined by the underlying FoR. Particularly the contrasting of the results of the benchmarking with the additional information gathered in the competitive and contextual analysis is a core activity in this step. Looking at established approaches for strategy development and formulation [22, 23, 26, 30], the strategic planning process can use the results from SP as a starting point for the development of an IT strategy and the derivation of action. With respect to our cases, all the companies used the result of the SP as a basis to formulate some kind of action program. While two companies (cases 1 and 2) decided to use the positioning project as a basis for strategic planning as a whole, the third company used the SP to conduct several important projects that supported their current IT strategy. In all cases, feedback from IT staff indicates that SP helped them in three ways: (1) being more conscious of their own position, (2) being able to improve alignment with the business units serviced, and (3) being able to ensure that operations, projects, and management decisions within IT actually fit the current IT strategy. 6. Limitations, Future Research, and Summary To correctly interpret the results of our work, some limitations need to be taken into account. Firstly, the use of case study research requires the presence of the researcher in the field. Consequently, the researcher might influence the behavior of the subject s/he wants to observe. We tried to take the necessary precautions [24] to minimize the adverse impact of this limitation. Secondly, for reasons of feasibility we had to constrain our research to a convenience sample. 32 Whilst acknowledging the higher generalizability of results based on theoretical sampling, we feel that accessibility of the companies that allowed us access to their confidential planning process outweighed this limitation. Thirdly, additional research has to be carried investigating what aspects need to be considered within the elements of the model introduced in this paper. While our work provides insights into SPITM, we also see opportunities for further research. One is the analysis of profiles that ITDs exhibit when being positioned according to the framework. Particular emphasis should be placed on the investigation of archetypal strategic positions, e.g. cost minimize vs. business enabler. This has the potential to integrate with the research on alignment [47]. Another area of research is the development of a method for SPITM. The research we have presented has introduced a framework of elements that such a method would need to cover. These opportunities can use our work as a point of departure. In structuring the elements needed to analyze the current strategic position of an ITD, we contribute to the understanding of this domain and the development of methods that are applicable in practice. The ability to conduct a proper positioning of an ITD is an integral part of integrating the processes and practices of ITM with general management. With this ability, ITDs will be able to improve their alignment with corporate strategy and hence further increase their value contribution to the business. Bibliography [1] AHMED, P.K., and RAFIQ, M., Integrated Benchmarking: A Holistic Examination of Select Techniques for Benchmarking Analysis, in: Benchmarking for Quality Management & Technology, 5, 3 (1998), pp. 225-242. [2] ALSHAWI, S., IRANI, Z., and BALDWIN, L., Benchmarking: Information and Communication Technologies, in: Benchmarking, 10, 4 (2003), pp. 312-324. [3] ANDREWS, K.R., The Concept of Corporate Strategy, Homewood, IL, USA 1971. [4] ARMSTRONG, J.S., The Value of Formal Planning for Strategic Decisions: Review of Empirical Research, in: Strategic Management Journal, 13, 3 (1982), pp. 197-211. [5] BALDWIN, L.P., IRANI, Z., and LOVE, P.E.D., Outsourcing Information Systems: Drawing Lessons from a Banking Case Study, in: European Journal of Information Systems, 10, 1 (2001), pp. 15-24. [6] BHUTTA, K.S., and HUQ, F., Benchmarking - Best Practices: An Integrated Approach, in: Benchmarking, 6, 3 (1999), pp. 254-268. [7] BLOODGOOD, J.M., and BAUERSCHMIDT, A., Competitive Analysis: Do Managers Accurately Compare Their Firms to Competitors?, in: Journal of Managerial Issues, 14, 4 (2002), p. 418. [8] BODDY, D., BOONSTRA, A., and KENNEDY, G., Managing Information Systems: An Organisational Perspective, Harlow, UK et al. 2005. [9] CHAKRAVARTHY, B., A New Strategy Framework for Coping with Turbulence, in: Sloan Management Review, 38, 2 (1997), pp. 69-82. [10] COBURN, M.M., GREENWOOD, D.J., and MATTEO, M.R., Supporting Strategy with Competitive Analysis, in: Research Technology Management, 45, 5 (2002), pp. 43-47. [11] CRAGG, P.B., Benchmarking Information Technology Practices in Small Firms, in: European Journal of Information Systems, 11, 4 (2002), pp. 267-282. [12] DATTAKUMAR, R., and JAGADEESH, R., A Review of Literature on Benchmarking, in: Benchmarking, 10, 3 (2003), pp. 176-209. [13] DEMIRKAN, H., and GOUL, M., Amcis 2006 Panel Summary: Towards the Service Oriented Enterprise Vision: Bridging Industry and Academics, in: Communications of AIS, 2006, 18 (2006), pp. 546-556. [14] DEPPERU, D., and GNAN, L., The Role of the Competitive Context in the Business Strategy-Formulation Process, in: International Studies of Management & Organization, 36, 3 (2006), pp. 110-130. [15] DREW, S.A.W., From Knowledge to Action: The Impact of Benchmarking on Organizational Performance, in: Long Range Planning, 30, 3 (1997), pp. 427-441. [16] EARL, M.J., Management Strategies for Information Technology, London, UK 1989. [17] EARL, M.J., and SAMPLER, J.L., Market Management to Transform the IT Organization, in: Sloan Management Review, 39, 4 (1998), pp. 9-17. [18] FETTKE, P., and LOOS, P., Classification of Reference Models: A Methodology and Its Application, in: Information Systems and E-Business Management, 1, 1 (2003), pp. 35-53. [19] GREGOR, S., The Nature of Theory in Information Systems, in: MIS Quarterly, 30, 3 (2006), pp. 611-642. [20] HATTEN, K.J., and SCHENDEL, D.E., Heterogeneity within an Industry: Firm Conduct in the U.S. Brewing Industry, 1952-71, in: Journal of Industrial Economics, 26, 2 (1977), pp. 97-113. 33 [21] HEIB, R., DANEVA, M., and SCHEER, A.-W., Benchmarking as a Controlling Tool in Information Management, in: Proceedings of the IFIP TC5 WG5.7 international workshop on modeling techniques for business process re-engineering and benchmarking, Bordeaux, France (1997), pp. 298 - 309. [22] HOPFENBECK, W., Allgemeine Betriebswirtschafts- Und Managementlehre, Landsberg/Lech, Germany 1998. [23] KING, W.R., Using Strategic Issue Analysis, in: Long Range Planning, 15, 4 (1982), pp. 45-49. [24] KLEIN, H.K., and MYERS, M.D., A Set of Principles for Conducting and Evaluating Interpretive Field Studies in Information Systems, in: MIS Quarterly, 23, 1 (1999), pp. 67-93. [25] KOVACEVIC, A., and MAJLUF, N., Six Stages of IT Strategic Management, in: Sloan Management Review, 34, 4 (1993), pp. 77-87. [26] LA ROCHE, U., Von Der Kunst, Mit Der "Richtigen" Produkt-Markt-Strategie-Methode Zu Planen, in: io Management Zeitschrift, 56, 3 (1987), pp. 135-139. [27] LEE, A., A Set of Principles for Conducting and Evaluating Interpretive Field Studies in Information Systems, in: MIS Quarterly, 23, 1 (1999), p. xvii. [28] LUFTMAN, J., and KEMPAIAH, R., An Update on Business-IT Alignment: "A Line" Has Been Drawn, in: MIS Quarterly Executive, 6, 3 (2007), pp. 165-177. [29] MINTZBERG, H., and LAMPEL, J., Reflecting on the Strategy Process, in: Sloan Management Review, 40, 3 (1999), pp. 21-30. [30] MINTZBERG, H., LAMPEL, J., QUINN, J.B., and GHOSHAL, S., The Strategy Process, Upper Saddle River, NJ, USA 2003. [31] MOCKER, M., and TEUBNER, A., Towards a Comprehensive Model of Information Strategy, in: Proceedings of the 13th European Conference on Information Systems, Regensburg, Germany (2005), pp. 747-760. [32] MÜLLER, B., AHLEMANN, F., and RIEMPP, G., IT-Benchmarking, in: is report, 11, 1+2 (2007), pp. 44-48. [33] OH, W., and PINSONNEAULT, A., On the Assessment of the Strategic Value of Information Technologies: Conceptual and Analytical Approaches, in: MIS Quarterly, 31, 2 (2007), pp. 239-265. [34] PORTER, M.E., Competitive Strategy, New York, NY, USA 1980. [35] PORTER, M.E., How Competitive Forces Shape Strategy, in: McKinsey Quarterly (1980), pp. 34-50. [36] PRYOR, L.S., Benchmarking: A Self-Improvement Strategy, in: The Journal of Business Strategy, 10, 6 (1989), pp. 28-32. [37] RATHNAM, R.G., JUSTIN, J., and WEN, H.J., Alignment of Business Strategy and IT Strategy: A Case Study of a Fortune 50 Financial Services Company, in: The Journal of Computer Information Systems, 45, 2 (2004), pp. 18. [38] RIEMPP, G., MÜLLER, B., and AHLEMANN, F., Towards a Framework to Structure and Assess Strategic IT/IS Management, in: Proceedings of the 16th European Conference on Information Systems, Galway, Ireland (2008). [39] RÜEGG-STÜRM, J., Das Neue St. Galler Management-Modell, Bern, Switzerland et al. 2003. [40] SCHEER, A.-W., and NÜTTGENS, M., ARIS Architecture and Reference Models for Business Process Management, in: Aalst, W.M.P.V.D., Desel, J., and Oberweis, A., (eds.), Business Process Management Berlin, Heidelberg 2000, pp. 376-389. [41] SCHMIDT, C., Analyse Von Leitfadeninterviews, in: Flick, U., Von Kardorff, E., and Steinke, I., (eds.), Qualitative Forschung: Ein Handbuch, Reinbeck 2003, pp. 447-456. [42] STEINMANN, H., SCHREYÖGG, G., and KOCH, J., Management. Grundlagen Der Unternehmensführung, Wiesbaden, Germany 2005. [43] TEO, T.S.H., and ANG, J.S.K., How Useful Are Strategic Plans for Information Systems?, in: Behaviour & Information Technology, 19, 4 (2000), pp. 275-282. [44] WATSON, G.H., Strategic Benchmarking: How to Rate Your Company’s Performance against the World’s Best, New York, NY, USA 1993. [45] WEBSTER, J., and WATSON, R.T., Analyzing the Past to Prepare for the Future: Writing a Literature Review, in: MIS Quarterly, 26, 2 (2002), pp. xiii-xxiii. [46] WEILL, P., and ROSS, J.W., IT Governance: How Top Performers Manage IT Decision Rights for Superior Results, Boston, MA, USA 2004. [47] WEISS, J.W., THOROGOOD, A., and CLARK, K.D., Three IT-Business Alignment Profiles: Technical Resource, Business Enabler, and Strategic Weapon, in: Communications of the Association for Information Systems, 2006, 18 (2006), pp. 676-691. [48] WILLCOCKS, L., and LESTER, S., Beyond the IT Productivity Paradox, in: European Management Journal, 14, 3 (1996), pp. 279-290. [49] WÖHE, G., and DÖRING, U., Einführung in Die Allgemeine Betriebswirtschaftslehre, Munich, Germany 2002. [50] ZARNEKOW, R., BRENNER, W., and PILGRAM, U., Integriertes Informationsmanagement: Strategien Und Lösungen Für Das Management Von IT-Dienstleistungen, Berlin 2007. 34 MEASURING CLIENT-VENDOR DISTANCE IN GLOBAL OUTSOURCING RELATIONSHIPS: A CONCEPTUAL MODEL Katharina Vogt, Robert Gregory, Roman Beck1 Abstract The objective of this paper is to develop a conceptual model for client-vendor distance in global IS outsourcing relationships as previous research on this issue is scarce. A multi-dimensional construct is deductively developed deploying the theory of psychic distance as a theoretical lens. A key finding is that client-vendor distance in global IS outsourcing relationships is constituted by several characteristics that go beyond language barriers, geographical distance, and cultural distance. Thus, the paper lays the grounds for the development of a theory-based measurement model of client-vendor distance in IS. Furthermore, subtle differences exist between near- and offshoring arrangements concerning the relevance and strength of individual dimensions. 1. Introduction The increasing amount of information systems and global services outsourcing is an apparent trend that is expected to continue in the foreseeable future [23]. The worldwide market for global IT outsourcing services is growing at a fast pace: IDC estimates that expenditures for IT offshoring will increase 14.4 percent on average in the USA and 16.5 percent in Western Europe until 2009 [20]. This is not surprising, considering the associated benefits of cost advantages that client firms can achieve due to significant differences in labor costs between Western countries and offshore locations in Middle and Eastern Europe and Asia [25]. However, these cost advantages do not materialize easily: global outsourcing relating to “inter-country outsourcing” in terms of offshore (including nearshore) outsourcing, is accompanied by unique challenges that can offset the expected benefits [23]. Offshore-specific risks result primarily from client-vendor distance, encompassing not only the geographic dimension but several others such as cultural, economic, and political dimensions [10]. Numerous studies have identified different dimensions of IS clientvendor distance in offshore projects, including managerial issues how to overcome the problems resulting from them [10; 24]. While previous research has enhanced our understanding of individual dimensions of client-vendor distance in IS offshoring, few attempts have been made to create an overall construct that captures the most salient dimensions for both nearshore and offshore client-vendor distance in IS. Moreover, there is still a lack of understanding as to what extent client-vendor distance differs in near- and offshore arrangements [6; 23]. Thus, more research is needed to depict the defining dimensions and characteristics of client-vendor distance in 1 E-Finance Lab & Institute of Information Systems, Johann Wolfgang Goethe University, Grüneburgplatz 1, 60323 Frankfurt am Main, Germany 35 global IS outsourcing relationships. Hence, the goal of this research is the development of a concept explaining client-vendor distance in near- and offshore IS outsourcing relationships. For this purpose, and because the existing literature in IS on this issue is scarce, the literature stream on ‘psychic distance’ is used as a theoretical lens for the conceptualization process. The concept of psychic distance originates from international trade research [2] and is based on the assumption that there is a psychic distance between countries in a trade relationship that can hinder effective intercountry collaboration [9]. Our goal is to adapt this construct from international trade and business research to the IS domain and identify those dimensions that fit with existing research in IS to create a model of client-vendor distance in global IS outsourcing relationships. Moreover, our goal is to gain a deeper understanding of the differences between client-vendor distance in IS nearshoring and offshoring. In summary, our main research question is: “What constitutes the distance between client and vendor in global IS outsourcing relationships?” The remainder of this research paper is structured as follows. In the next section we will provide the theoretical foundation for studying this research question. In section three we will develop a theoretically grounded conceptual model which specifies the dimensions of client-vendor distance in global IS outsourcing relationships and discuss the near- and offshore-specific characteristics of clientvendor distance. Section four is pointing out the limitations as well as opportunities for further research. The paper ends with theoretical and practical contributions alike. 2. Theoretical Foundations 2.1. Offshoring and Nearshoring of Information Systems and Services Prior research on global IS outsourcing has pointed to the challenge of geographic distance between client and vendor, including primarily time zone differences [8; 13; 30]. Some studies have also looked at language barriers, the most frequently mentioned problem is the lack of English skills of the service provider’s staff [8; 30; 37]. A further dimension of client-vendor distance concerns the cross-cultural differences: numerous studies have analyzed cultural barriers in global IS outsourcing projects, while the predominant research has focused on culture differences on a national level [8; 18; 24; 27; 30]. However, more recently attempts have also been made in IS to study culture at the individual level of analysis [17; 36]. Other issues of client-vendor distance in global IS outsourcing have also been mentioned, including differences in institutions, market structures, economies, politics, and intellectual property regulations [30; 31]. While the overwhelming amount of previous research in IS has not made a clear distinction between different types of IS offshoring, there are calls for further research to depict the subtle differences between offshoring and nearshoring, among others [23]. In particular, research on IS nearshoring is gaining momentum [6]. However, there is very little literature on this special form of global outsourcing. This becomes especially apparent when looking for a definition of nearshore outsourcing. Despite its increasing consideration in the clients sourcing strategies [6], there is still a lack of a sophisticated understanding of this outsourcing option. In contrast to the various offshoring definitions which can be synthesized to “a form of outsourcing performed outside the client organization’s home country” [23], often but not always associated with another continent [26], up to now nearshore outsourcing is primarily defined through its differentiation from offshoring in terms of spatial distance: whereas any location outside the client’s home country can be called an offshore location, nearshore locations are mainly associated with geographical proximity to the client’s home country [1; 6; 10]. In summary, research in the areas of global IS outsourcing, as well as globally distributed IS outsourcing teams, provide a large number of studies addressing different dimensions of client-vendor distance in global IS outsourcing relationships. However, there is no consensus upon a common framework capturing the defining dimensions and 36 characteristics of client-vendor distance. The following section provides a literature review of psychic distance research in international trade, marketing, and business that will be used subsequently as a theoretical lens for the conceptualization. 2.2. Research on Psychic Distance in International Trade, Marketing, and Business The roots of psychic distance date back to Beckerman (1956) who argued that international trade is not only influenced by economic distance, but is also exposed to a “special problem […] by the existence of ‘psychic’ distance” [2]. This argument has been picked up by a group of Scandinavian researchers adopting the concept of psychic distance for their research of the firms’ internationalization process [21; 22]. In the meantime, psychic distance has evolved to be a central concept in the international business literature [35] and has been applied mainly to explain international market selection [15]. Even though some of these studies have put psychic distance on a par with cultural distance [29; 33], there exists a significant conceptual difference between the two concepts. While cultural distance reflects dissimilarities in cultural values among countries and therefore needs to be applied at the country level of analysis, psychic distance is based on the individual sensitivity to dissimilarities between countries and therefore focuses on the individual level of analysis [35]. Moreover, several researchers have identified cultural distance as one out of several dimensions of psychic distance [4; 11; 14; 15; 34]. This view is also supported by the findings of an empirical study examining the impact of psychic distance on organizational performance where only an operationalization of psychic distance using both cultural and business differences contributed to the significantly relevant explanation of organizational performance [14]. Furthermore, recent research results suggest that factors such as local skill levels, social and political stability, host government policy, as well as previous experience with the respective country may have been underrated hitherto with regards to their impact on the individual’s perception of psychic distance [9]. Last but not least, the classification of cultural distance as a dimension of psychic distance is consistent with the suggestion of several researchers to examine culture not only at the country level of analysis but at the individual level [16; 19], since the psychic distance concepts allows for a measurement of cultural differences as perceived by individuals [35]. As any form of global outsourcing can be understood as a form of international trade [3], we are convinced that the application of the psychic distance concept to the IS outsourcing domain is legitimate. Moreover, the ‘psychic distance paradox’ [28] makes the application of the concept to the IS domain interesting for a further reason. The ‘psychic distance paradox’ refers to the risk that the assumption of little psychic distance between the home and the foreign country could lead to the underestimation of actual differences and as a consequence could prevent managers from sharpening their awareness in this regard [28]. As nearshore outsourcing is often being associated with cultural proximity [6], relating to an assumed small psychic distance [35], according to the psychic distance paradox there is definitely a risk of mispricing the “cost for covering distance” [2]. 2.3. Psychic Distance – Definitions and Operationalizations The theoretical concept of psychic distance is based on the assumption of a perceived psychic gap between two countries arising from multifaceted dimensions such as language, culture, religion, education, political systems, business practices, level of development, time zone, laws, and others [4; 9; 12; 34]. However, despite its comprehensive use, no consistent definition of psychic distance has yet emerged throughout the international business literature [9]. Early definitions address the importance of knowing foreign markets, e.g. referred to as “flows of information”[22] or “a firm's degree of uncertainty” [28] and define psychic distance as the “factors preventing or disturbing the flows of information” [22]. More recently, researchers highlight the implications of cultural and 37 other differences for the companies’ international market selection: according to them, psychic distance results from the “perception of both cultural and business differences” [14], leading to a feeling of distance between the home and the foreign country [9; 14; 15]. Whereas Child et al. [9] enhanced the concept by differentiating between distance creating, distance compressing, and distance bridging factors, Sousa and Bradley’s [35] understanding of psychic distance emphasized the individual’s perspective. According to the variety of definitions, the available operationalizations of psychic distance differ [29]. Table 1 gives a brief overview over the main operationalizations within the last years. Table 1: Operationalizations of psychic distance Sousa and Bradley (2005) Dow and Karunaratna (2006) Cultural values, beliefs, attitudes, and traditions Culture Language Language Social ties (Cultural and language similarities, sport preferences) Geographic distance (incl. temporal and climatic differences) Climatic conditions Time zones Geographic ties (not mentioned) (not mentioned) Political systems Political ties Economic differences Level of economic and technological development (not mentioned) Industrial / economic development Development (not mentioned) Level of education, Education level (not mentioned) Differences in market structure Level of literacy and education (not mentioned) (not mentioned) (not mentioned) Commercial ties (not mentioned) (not mentioned) (not mentioned) Colonial links Historic ties Evans and Mavondo (2002) Cultural distance Language differences (not mentioned) Legal & political differences Child et al. (2002) Culture (incl. differences in language) Brewer (2007) The following dimensions have been mentioned in the respective operationalization only. Differences in business practice Purchasing power of customers Lifestyles Consumer preferences Religions Information ties Most of the above presented operationalizations of psychic distance feature the differences between the home and the foreign countries [4; 9; 14; 34]. Brewer’s [4] operationalization of psychic distance however is based on the understanding of psychic distance “as factors preventing or disturbing the flows of information between firm and market” and thus sharpens the understanding of psychic distance through emphasizing the development of knowledge about foreign country markets [4]. He argues that – instead of perceived similarities or dissimilarities – especially the managers’ familiarity with foreign markets is shaping the concept of psychic distance [4]. We adopt his operationalization for our research due to the knowledge-intensive nature of global IS outsourcing. 38 3. Model Development 3.1. Characterizing Dimensions of Client-Vendor Distance in Global IS Outsourcing Relationships In order to construct a model of client-vendor distance in global IS outsourcing relationships, we use Dibbern et al.’s [10] conceptualization of offshore-specific client-vendor distance as a starting point. Concentrating on the interaction between client and vendor, the researchers selected geographic and culture distance as well as language barriers to be the most salient factors creating client-vendor distance [10]. We intend to broaden this view based on numerous results from international trade research indicating that a couple of other factors may also contribute significantly to the perceived distance between client and vendor [4; 11; 14; 15; 34]. Thus, we enhance the existing concept of client-vendor distance by additional categories based on the theoretical concept of psychic distance. As already outlined before we therefore adopt the operationalization of Brewer [4]. In order to identify the characterizing dimensions of client-vendor distance, we map the client-vendor distance measures that have been indentified from the near- and offshore outsourcing literature to the national psychic distance elements defined by Brewer [4]. In the process, we find the factors described in the domain literature to be mostly congruent with the operationalization of psychic distance. Thus, we use the psychic distance elements as the foundation for our model. However, taking into account the particularities of the global IS outsourcing domain and building upon prior research in IS, we need to conduct the following adjustments in the sense of modifying existing elements as well as adding a new dimension . An overview on the mapping results including the modifications is presented in table 2. Table 2: Mapping of psychic distance elements with characteristics identified from the global IS dimension Psychic distance Dimensions of client-vendor distance from offshore outsourcing literature Dimensions of client-vendor distance from nearshore outsourcing literature Commercial ties [6] Market dimension [26] Market dimension [1; 26] Political ties [6] Political / economic dimension [10] Legal dimension [10; 26; 30; 31] Political / economic dimension [1; 6; 26] Legal dimension [30] Historic dimension [1; 6] Historic ties [6] Geographic ties [6] Geographic dimension [7; 8; 10; 30] Temporal dimension [7; 10; 30; 31] Social ties [6] Information ties [6] Cultural dimension [10; 18; 24; 30; 31] Language dimension [10; 30; 37] ./. Geographic dimension [1; 6]; Temporal dimension [1; 6; 30] Accessibility dimension [1] Cultural dimension [1; 6; 26; 30] Language dimension [1; 6; 26; 30] ./. Development [6] Infrastructure dimension [10; 30; 31] Infrastructure dimension [1; 30] Level of education [9; 12; 34] Personnel dimension [26; 31] Personnel dimension [1; 26] First, we disaggregate the element ‘social ties’ which is reflected through the indicators cultural and language similarities as well as sport preferences and adopt the view of the global IS outsourcing literature where the cultural and the language dimension are commonly treated as two discrete dimensions. We do not include the indicator sport preferences because in contrast to cultural and language differences, this factor is not presumed to have a big impact on IS business client-vendor relationships. With regards to the element ‘geographic ties’, we add the temporal dimension 39 (different time zones) as these two characteristics are commonly used to represent the spatial distance in global outsourcing arrangements. The same holds for the element ‘political ties’ which we complement with a legal dimension, thereby acknowledging the role of legal issues in global IS outsourcing. To our knowledge, ‘information ties’ referring to the availability of secondary information on the foreign country as well as to immigration numbers have not been used as a measure for client-vendor distance in the global IS outsourcing literature so far. Moreover, this factor has not been part of any of the other operationalizations. However, resuming Brewer’s [4] knowledge-centric understanding of psychic distance, we consider information ties to be relevant for client-vendor distance in global IS outsourcing relationships based on the assumption that a broad information base enables managers to more easily learn about a foreign country and thus decreases the managers’ psychic distance to this country. As the availability of well-educated resources has been emphasized to be a key success factor for offshore outsourcing [26], we finally argue to additionally include the dimension „level of education“ being cited by several studies elaborating on psychic distance [9; 12; 34]. Based on the mapping results described above, we create a model of client-vendor distance in global IS outsourcing relationships suggesting that client-vendor distance in global IS outsourcing relationships is constituted by several characteristics that go beyond language barriers, geographical distance, and cultural distance. An overview of the dimensions definitions is presented in Table 3. Table 3: Client-Vendor-Distance – Definition of Constituting Factors Client-Vendor Distance Dimensions Definition Commercial dimension The commercial dimension refers to existing commercial relationships such as “imports and exports of both goods and services” [4]. Political dimension The political dimension refers to “close political relationships” [4]. Historic dimension The historic dimension refers to former colonial relationships as well shared wars [4]. Geographic dimension Temporal dimension Cultural dimension Language dimension Information dimension Development dimension Educational dimension The geographic dimension refers to the actual “geographic distance between countries” [4]. The temporal dimension refers to the time zone differences between client and vendor [12]. The cultural dimension refers to cultural differences between client and vendor [4]. The language dimension refers to language preferences in terms of national language, business language, or alphabet [4]. The information dimension refers to the availability of secondary information on the foreign country [4]. The development dimension refers to the “level of development of the foreign country” [4]. The educational dimension refers to “differences in education levels among countries” [12]. 3.2. Comparing Client-Vendor Distance in Off- and Nearshore Outsourcing Relationships If we now compare nearshoring with offshoring, the main differences between these two forms of global outsourcing are the level of geographic distance and time zones differences [9; 37]. Therefore, client firms in a nearshore arrangement have lower communication and coordination costs than client firms in an offshore arrangement [26]. Furthermore, based on the assumption of 40 cultural and linguistic proximity [6; 30], less misunderstandings might occur [26]. Both nearshore and offshore outsourcing are associated with lower wage costs [5]. However, the wage level in nearshore locations is claimed to be higher [30].This might partly be justified through a competitive educational system. In Middle and Eastern Europe for instance, the number as well as the quality of university graduates equals to Western Europe as well as to the US [26]. Thus, well-educated personnel is available but costly; the lower wage costs of India can only be realized in a nearshore arrangement when turning towards so called “emerging nearshore destinations” [30]. However, in contrast to established emerging nearshore locations often lack appropriate professional experience [30], as they are just evolving to become a well-developed market for IS outsourcing services [26]. The historical dimension referring to past linkages such as colonial relationships has only been found in the nearshore related literature. One explanation could be, that in nearshore arrangements a however natured historic relationship can be taken as granted as nearshore destinations are typically neighboring countries of the clients’ home country. However, we assume that there are other kinds of historical linkages which are directly related to the geographical proximity. The exploration of these potential linkages is subject to future research. Resuming the discussion above, client-vendor distance-related issues not only arise in offshore but also in nearshore arrangements. However, our analysis shows that the importance of the constituting factors of this distance differ in comparison to offshore outsourcing [30]. As of today, academic literature on nearshore outsourcing is scarce: only few scientific publications explicitly cover the nearshore phenomenon. Moreover, publications on offshore outsourcing do often not state the host country [23] so that the identification of potential nearshore outsourcing projects is difficult. This lack of empirical and non-empirical data on nearshore outsourcing needs to be addressed in future research. Further ideas for further research activities will be discussed in the subsequent section. 4. Limitations and Further Research There are several limitations to be taken into account. First and foremost, it should be recognized that the client-vendor distance model depicted above has been deductively derived from the existing literature. No empirical data was at our disposal in order to challenge and, if applicable, complement the concept. Thus, the findings may miss dimensions that are influencing client-vendor distance in practice but are not captured in the scientific literature yet. Second, it should be kept in mind that we based our analysis on a scarce literature basis with regards to the nearshore phenomenon. In reference to the study’s limitations, several opportunities for future research become apparent. First, as our work has been conceptual so far, we consider qualitative interviews to be an interesting research opportunity in order to further explore today’s model. Moreover, it would be promising to conduct a quantitative study to empirically validate the theoretical model as well as to evaluate the relative importance of the individual concepts of client-vendor distance and their interplay. Furthermore, we would like to encourage researchers to contrast client versus vendor perspectives in the process, as client-vendor distance in interorganizational exchange relationships is not necessarily symmetric in nature [32]. For example, an Indian vendor already having several customers from Germany might perceive a smaller psychic distance as a German client starting his first offshore project with an Indian vendor. Implications for future research emerge also from the previous discussion on nearshore outsourcing which is slightly different from offshore outsourcing. Thus, further research is needed to study more in detail the difference between client-vendor distance in nearshoring as opposed to offshoring arrangements. In this context it would be also interesting to evaluate the specifics of client-vendor distance in outsourcing relationships comprising only one country. 41 5. Conclusion This paper is the first attempt to develop a comprehensive concept of client-vendor distance in global IS outsourcing relationships. Prior work mainly discussed the well-known challenges resulting from geographic and time zone differences, cultural distance and language barriers. By applying a theoretical lens from international trade literature (i.e. psychic distance), we are able to offer a broader view on the most salient dimensions for both nearshore and offshore client-vendor distance. By doing so, we lay the grounds for the development of a theory-based measurement model of client-vendor distance in IS. The main theoretical contribution of this paper is the deductive development of a model for client-vendor distance in near- and offshore arrangements increasing our understanding of psychic distance in interorganizational exchange relationships in general and in global IS outsourcing relationships more specifically. Furthermore, we enhance the domain literature through the introduction of a new theoretical concept, i.e. the psychic distance concept from international trade research. The paper also offers some practical contributions: based on the depicted multifaceted client-vendor distance in global IS outsourcing relationships, managers can learn to increase their familiarity with vendors from foreign countries also beyond intercultural training programs. For instance, studying secondary information on the foreign country will increase the knowledge on the host country and concurrently might decrease the feeling of distance. Furthermore, the identified dimensions of client-vendor distance can be taken into account in the course of the vendor selection process. From a vendor perspective, especially (emerging) nearshore destinations would probably be well advised to develop their unique selling points based on the knowledge of distance-creating characteristics identified above. This could then result in nearshore-specific application scenarios deploying the phenomenon’s as well as the country’s individual strengths. 6. References [1] ABBOTT, P.; JONES, M., Everywhere and Nowhere: Nearshore Software Development in the Context of Globalisation, in: 2nd International Conference on Management of Globally Distributed Work 2007 [2] BECKERMAN, W., Distance and the Pattern of Intra-European Trade, in: Review of Economics and Statistics. 38 (1956) 1, pp. 31-40. [3] BHAGWATI, J. N.; PANAGARIYA, A.; SRINIVASAN, T. N., The Muddle over Outsourcing, in: Journal of Economic Perspectives. 18 (2004) 4, pp. 93-114. [4] BREWER, P. A., Operationalizing Psychic Distance: A Revised Approach, in: Journal of International Marketing. 15 (2007) 1, pp. 44-66. [5] CARMEL, E.; ABBOTT, P., Configurations of Global Software Development: Offshore versus Nearshore, in: Proceedings of the 2006 international workshop on Global software development for the practitioner, Shanghai, China 2006 [6] CARMEL, E.; ABBOTT, P., Why "Nearshore" Means that Distance Matters, in: Communications of the ACM. 50 (2007) 10, pp. 40-46. [7] CARMEL, E.; AGARWAL, R., Tactical Approaches for Alleviating Distance in Global Software Development, in: IEEE Software. 18 (2001) 2, pp. 22-29. [8] CARMEL, E.; AGARWAL, R., The Maturation of Offshore Sourcing of Information Technology Work, in: MIS Quarterly Executive. 1 (2002) 2, pp. 65-78. [9] CHILD, J.; NG, S. H.; WONG, C., Psychic Distance and Internationalization, in: International Studies of Management and Organization. 32 (2002) 1, pp. 36-56. 42 [10] DIBBERN, J.; WINKLER, J.; HEINZL, A., Explaining Variations in Client Extra Costs Between Software Projects Offshored to India, in: MIS Quarterly. 32 (2008) 2, pp. 333-366. [11] DOW, D., A Note on Psychological Distance and Export Market Selection, in: Journal of International Marketing. 8 (2000) 1, pp. 51-64. [12] DOW, D.; KARUNARATNA, A., Developing a Multidimensional Instrument to Measure Psychic Distance Stimuli, in: Journal of International Business Studies. 37 (2006) 5, pp. 578-602. [13] ESPINOSA, J. A.; DELONE, W.; LEE, G., Global Boundaries, Task Processes and IS Project Success: A Field Study, in: Information Technology & People. 19 (2006) 4, pp. 345-370. [14] EVANS, J.; MAVONDO, F. T., Psychic Distance and Organizational Performance: An Empirical Examination of International Retailing Operations, in: Journal of International Business Studies. 3 (2002) 33, pp. 515-532. [15] EVANS, J.; MAVONDO, F. T.; BRIDSON, K., Psychic Distance: Antecedents, Retail Strategy Implications, and Performance Outcomes, in: Journal of International Marketing. 16 (2008) 2, pp. 32-63. [16] FORD, D. P.; CONNELLY, C. E.; MEISTER, D. B., Information Systems Research and Hofstede's Culture's Consequences: An Uneasy and Incomplete Partnership, in: IEEE Transactions on Engineering Management. 50 (2003) 1, pp. 8-25. [17] GREGORY, R.; PRIFLING, M.; BECK, R., Managing Cross-Cultural Dynamics in IT Offshore Outsourcing Relationships: The Role of Cultural Intelligence in: Second Global Sourcing Workshop, Val d'Isere, France 2008 [18] HEEKS, R.; KRISHNA, S.; NICHOLSON, B.; SAHAY, S., Synching or Sinking: Global Software Outsourcing Relationships, in: IEEE Software. 18 (2001) 2, pp. 54-60. [19] HONG, Y.-Y.; CHIU, C.-Y., Toward a Paradigm Shift: From Cross-Cultural Differences in Social Cognition to Social-Cognitive Mediation of Cultural Differences, in: Social Cognition. 19 (2001) 3, pp. 181-196. [20] IDC, Titel, in: City 2006. [21] JOHANSON, J.; VAHLNE, J.-E., The Internationalization Process of the Firm—A Model of Knowledge Development and Increasing Foreign Market Commitments, in: Journal of International Business Studies. 8 (1977) 1, pp. 23-32. [22] JOHANSON, J.; WIEDERSHEIMPAUL, F., Internationalization of Firm - 4 Swedish Cases in: Journal of Management Studies. 12 (1975) 3, pp. 305-322. [23] KING, W. R.; TORKZADEH, G., Information Systems Offshoring: Research Status and Issues, in: MIS Quarterly. 32 (2008) 2, pp. 205-225. [24] KRISHNA, S.; SAHAY, S.; WALSHAM, G., Managing Cross-Cultural Issues in Global Software Development, in: Communications of the ACM. 47 (2004) 4, pp. 62-66. [25] MEYER, T., India's Specialization in IT Exports: Offshoring Can't Defy Gravity, in: Deutsche Bank Research. (2007) pp. 1-26 (available online at http://www.dbresearch.com/PROD/DBR_INTERNET_ENPROD/PROD0000000000217530.pdf). [26] MEYER, T.; STOBBE, A., Welche "Standorte" wählen deutsche Unternehmen?, in: Wirtschaftsinformatik. 49 (2007) Sonderheft, pp. 81-89. [27] NICHOLSON, B.; SAHAY, S., Some Political and Cultural Issues in the Globalisation of Software Development: Case Experience from Britain and India, in: Information and Organization. 11 (2001) 1, pp. 25-43. [28] OGRADY, S.; LANE, H. W., The Psychic Distance Paradox, in: Journal of International Business Studies. 27 (1996) 2, pp. 309-333. 43 [29] OJALA, A.; TYRVAINEN, P., Market Entry and Priority of Small and Medium-Sized Enterprises in the Software Industry: An Empirical Analysis of Cultural Distance, Geographic Distance, and Market Size, in: Journal of International Marketing. 15 (2007) 3, pp. 123-149. [30] RAO, M. T., Key Issues for Global IT Sourcing: Country and Individual Factors, in: Information Systems Management. 21 (2004) 3, pp. 16-21. [31] ROTTMAN, J.; LACITY, M. C., Twenty Practices for Offshore Outsourcing, in: MIS Quarterly Executive. 3 (2004) 3, pp. 117-130. [32] SHENKAR, O., Cultural Distance Revisited: Towards a More Rigorous Conceptualization and Measurement of Cultural Differences, in: Journal of International Business Studies. 32 (2001) 3, pp. 519-535. [33] SHOHAM, A.; ALBAUM, G. S., Reducing the Impact of Barriers to Exporting: A Managerial Perspective, in: Journal of International Marketing. 3 (1995) 4, pp. 85-105. [34] SOUSA, C. M. P.; BRADLEY, F., Global Markets: Does Psychic Distance Matter?, in: Journal of Strategic Marketing. 13 (2005) 1, pp. 43-59. [35] SOUSA, C. M. P.; BRADLEY, F., Cultural Distance and Psychic Distance: Two Peas in a Pod?, in: Journal of International Marketing. 14 (2006) 1, pp. 49-70. [36] SRITE, M.; KARAHANNA, E., The Role of Espoused National Cultural in Technology Acceptance, in: MIS Quarterly. 30 (2006) 3, pp. 679-704. [37] ZATOLYUK, S.; ALLGOOD, B., Evaluating a Country for Offshore Outsourcing: Software Development Providers in the Ukraine, in: Information Systems Management. 21 (2004) 3, pp. 28-33. 44 THE (LACKING) BUSINESS PERSPECTIVE ON SOA – CRITICAL THEMES IN SOA RESEARCH Goetz Viering, Christine Legner, Frederik Ahlemann1 Abstract Service-oriented architecture (SOA) has gained much popularity lately, in both practice and academia. Since SOA concepts and technology are maturing, companies have started to engage in projects that will fundamentally transform IS landscapes over the next decade. While the growing body of SOA research is mostly technology-oriented, the IS community needs to investigate the strategic, organizational, and managerial issues associated with SOA implementation. This paper profiles SOA and Web services research since 2000 with a focus on practices, adoption, and impact. Drawing on a sample of 175 papers in academic journals and conference proceedings, we establish transparency of the current state of research. Our analysis finds that the science base for SOA research from an IS perspective is still under construction thereby reflecting the novelty of the underlying technologies. We conclude that business aspects remain underserved and derive a number of recommendations for the IS community on how to proceed with SOA research. 1. Introduction Since the term service-oriented architecture was originally coined by Gartner analysts in 1996 [32], it has gained much popularity in both practice and academia. Owing to the hype around Web service technologies and the subsequent announcements of software vendors, such as SAP, IBM, and others to incorporate Web services and SOA in their product suites, the service-oriented paradigm has been revitalized in the early 2000s. In the meantime, researchers have started to explore how loosely coupled services can be combined and rearranged in order to flexibly support the needs of end-users within and across organizations. They have come up with a large variety of SOA scenarios and prototypes. At the same time, a scientific discourse has been initiated, resulting in debates among renowned researchers [9, 26, 45, 47], literature reviews [23, 28, 36] or propositions for research agendas [36]. This discourse contributes to defining the service-oriented paradigm and analyzing its specificities compared to prior concepts, notably software components or object orientation. While our scientific understanding of SOA is improving and technology is maturing, a more detailed analysis of the management-related questions associated with SOA design, adoption, and impact in practice is still lacking. Taking into consideration that 63% of all North-American, European, and Asian-Pacific companies are already using SOA, or will start using it by the end of 2008 [17], there is a need for an academic discussion on the manifold strategic, organizational and managerial issues related to it. Given the sheer volume of SOA research, it seemed obvious that a sur1 Institute of Research on Information Systems, European Business School, D-65375 Oestrich-Winkel. 45 veying of the literature could assist in identifying and aggregating the different perspectives in this field of research. Drawing on a sample of 175 articles in peer-reviewed journals and conference proceedings, this article investigates the current state of research. To this aim, we use a research framework that is based on generic IS research questions and focuses on SOA adoption, practices, and impact. Our analysis delineates several areas that remain underserved and that offer researchers the opportunity to contribute to the development of the field of SOA research. Consequently, we aim at establishing a science base for future research. The paper is organized as followed: part 2 provides an overview of the methodology and the framework of analysis. This is followed by the results section of the literature review. From the discussion of the results, we derive several areas that remain underserved. Finally, a summary and conclusion is provided that also discusses the limitations of this study. 2. Framework of Analysis and Methodology 2.1 The SOA Discourse: Framework of Analysis Through a literature review, the exposure of theoretical foundations in an emerging issue like the field of SOA can be tackled and areas where research is needed are uncovered [49]. Recognizing the suggestions of Webster & Watson [49] and Fettke [11], a literature review framework is helpful in guiding the literature analysis. We develop such a framework of analysis (c.f. Figure 1) by deriving four general SOA research questions based on Gregor’s taxonomy of theory types in IS [14]: • What are the characteristics of the SOA paradigm? This research question aims at analyzing and describing the phenomena of interest. In addition to their definitions, the fundamental constructs (artifacts) that characterize SOA as an architectural paradigm and their relationships are of particular relevance. The what is question often results in Theory for Analyzing (Type I) according to the taxonomy suggested by Gregor [14]. It is seen as the most basic type of theory as it provides the realist ontology required for further research. • How – and to what extent – are SOA concepts adopted in practice? There are many IS innovations that – due to technical, cultural or economic factors – have not made their way to broader implementation in practice. In this regard, it is of interest for researchers to analyze adoption and diffusion of SOA concepts in and between organizations. This will ultimately lead to insights into adoption patterns and the factors that determine successful SOA implementations. It will also explain the emerging web services offerings and market mechanisms. Answering this research question requires researchers to conduct empirical studies and to collect observations from the field. It typically results in Theories for Explaining (type II) [14]. • How to design, implement, and manage SOAs? This research question aims at specifying how organizations should apply the SOA concept, and might be most valuable from the practitioner’s point of view. It is associated with a constructivist type of research or design science, resulting in frameworks, reference models, methods, and management practices. Gregor [14] classifies this type of theory as Theory for Design and Action. • What is the organizational impact of SOA? While most computer scientists agree that the service-oriented paradigm has clear benefits in terms of technical quality attributes, it has been difficult to economically justify SOA. Researchers consequently need to come up with approaches and methodologies for describing and measuring the impact of SOA. Given the multiple facets of SOA, technical as well as economic and strategic impacts of SOA concepts need to be considered. Consequently, research will most likely produce Theories for Explaining and Predicting [14], with testable propositions and causal explanations. 46 Figure 1: Framework of Analysis 2.2 Literature Selection Process As the basis of our literature review, we relied on the AIS Meta Ranking [38] which has a wide acceptance among researchers as an international journal meta-ranking which combines different scientific approaches. A set of key words (“SOA”, “service-oriented”, “web services”, “component-based”, “CORBA”, and “architecture”) was used in a first step to identify journals, which were further investigated. Following Webster and Watson’s suggestion [49], we then checked the journals’ tables of content from January 1990 to December 2007 in order to identify articles on SOA and web services. Since our focus is on SOA adoption, practices and impact in organizations, we excluded articles from the computer science domain that solely focus on the technical concepts that underlie SOA. For this paper, only articles containing the term SOA and/or web service in the title or abstract were taken into account. Articles that appeared in 2008 and papers from selected IS conferences were also included in the analysis. Since our analysis was targeted at reviewing the current state of research, we did not include publications that are not peer-reviewed, such as monographies. 2.3 Review and Classification Process During the review and classification process, we analyzed and coded the selected publications by focusing on the following three aspects: the general publication data, including sub-codes for the year of publication, the publication type (conference or journal), and the primary focus (SOA or web services). Then, the research methodology where we relied on the taxonomy developed by Wilde and Hess [50]. In order to cover literature reviews, we added literature analysis which has been suggested by Palvia et al. [35]. Classification of the research methodology and the general publication data was performed “top-down” [42] by one author and checked by another author. In the third step, we analyzed and coded the content according to the framework of analysis presented in section 2.1. We developed the coding scheme for the content using Weber’s eight necessary steps of Creating and Testing a Coding Scheme [48]. For the assignment to one of the four key research questions, classification was based on the stated research objectives of the paper. For Weber’s first necessary step, we defined the recording unit as the sentence. Next, we identified categories by using an initial open test coding [12] on a sample of 28 randomly selected articles. The results of this initial phase were discussed among the authors and classified to one of the four research questions of the reference frame resulting in the first sub-codes. Then, two rounds of axial coding [46] were performed by two authors in a step-wise manner on the complete set of data. If none of the initial codes were suitable, new sub-codes were added. In the third step, we tested for inter-rater reliability by comparing the results of the two rounds. Differing views between the two coders were discussed until agreement was reached. All resulting categories were critically as- 47 sessed and singular cases were selectively reassigned to a different key research question. In a third iteration, each paper was assigned to a final category. In some cases, multiple research objectives were pursued, which led to the assignment of a secondary classification. The derivation of research opportunities was based on a careful comparison of our framework’s analysis dimensions with the literature found. 3. Results 3.1 Overview From the tables of contents of 37 journals that we checked, we identified 175 articles within the scope of our analysis. Approximately two thirds of all articles refer rather to the specific technology of Web services (#112) than to SOA (#63). Only a small portion was covering both key words (#9). However, as the run of the curve of the following graph indicates, increasingly more scientific papers about SOA than about Web services are being published for the last 2 years. We interpret this as an indicator that the research community found consensus on the distinction of the two terms. Furthermore, we see a constant increase of publications in this research topic while press releases in mid-2007 claimed that the SOA hype is over [29]. Publications seem to reflect the increase of research objects from the field as SOA diffuses among companies. In addition, a very active scientific debate has started with special issues in high ranked journals, such Wirtschaftsinformatik (1/2008). 45 40 35 30 25 20 15 10 5 0 Web Services SOA Sum 2000 2001 2002 2003 2004 2005 2006 2007 2008 Figure 2: SOA and Web Services Publications by Year of Publication 3.2 Content Classification On the level of the four research questions, most articles proposed suggestions on how to design, implement, and manage SOAs (#86/49%) followed by papers analyzing the adoption (#37/21%) and investigating the phenomena of SOA and Web services (#31/18%). With 11%, only a minor portion of the publications analyze the impact of SOA and Web services in practice. The analysis of the sub-codes identified during the review and classification process, provides us with some further insights into the current state of research: With regard to the first research question “What are the characteristics of the SOA paradigm?”, the majority of the papers (#18/10%) investigate the primary SOA and Web services artifacts and discuss standards. This category is followed by 10 papers (6%) that aim at defining SOA or Web services or contribute to aggregating various definitions. The sub-category SOA Products relates to presentations and critical evaluations of SOA suites of vendors. We identified only few papers which describe products from three large software vendors namely IBM [10], Microsoft [40] and SAP [53]. Publications on the second area of research (“How are SOA and web services adopted in practice?”) comprise case descriptions which are either teaching cases [13] or case documentations of SOA implementations in practice. Besides case descriptions (#13/7%), the sub-category Assimilation / Adoption is most prominent with also 13% of all publications. For the third research question (“How to design, implement, and manage 48 SOAs?”), the analysis clearly illustrates that it has attracted the most interest from the research community (#86/49%). Together, the following four sub-categories represent 91% of all the papers in this area of research: Publications that suggest enhancements of SOA and Web services concepts are the topic of 29 papers (17%), while 23 papers (13%) investigate domain-specific architecture designs. 14 papers (8%) provide suggestions and practices for service management, and 12 publications suggest methods for implementing SOA or designing services. The smallest fraction of papers focuses on the fourth research question “What is the economic impact of SOA and web services?” With ten papers, the largest sub-category in this field (#10/6%) comprises publications investigating the benefits of web services and SOA. The second largest category includes six papers that are focusing on methodologies to measure the impact and the actual impact measurement (#6/3%). Frequencies (primary classification) # % 1. SOA Concepts: What are the characteristics of the SOA paradigm? 31 18% Artifacts and Standards 18 10% Definitions 10 6% Products 3 2% 2. SOA Adoption: How are SOA and web services adopted in practice? 37 21% Cases 13 7% Assimilation / Adoption 13 7% Success and Influence Factors 3 2% IT Infrastructure 2 1% Service Management 3 2% Web Service Offerings and Markets 3 2% 3. SOA Practices: How to design, implement, and manage SOAs? 86 49% Architecture Design with SOA/WS (Enhancements and Extensions) 29 17% Architecture Design with SOA/WS (Domain Specific) 23 13% Implementation Methods 12 7% Organization and Governance 4 2% Reference Models 4 2% Service Management 14 8% 4. SOA Impact: What is the organizational impact of SOA? 19 11% Benefits 10 6% Impact Measurement / Methodologies 6 3% IT Infrastructure 1 1% ROI 2 1% not assignable 2 1% Total 175 100% Table 1: Content Classification according to the Framework of Analysis Content Classification according to the Areas of SOA Research Frequencies (incl. multiple classifications) # % 38 18% 22 11% 11 5% 5 2% 50 24% 17 8% 21 10% 3 1% 3 1% 3 1% 3 1% 92 45% 29 14% 26 13% 14 7% 5 2% 4 2% 14 7% 24 12% 15 7% 6 3% 1 0% 2 1% 2 1% 206 100% 3.3 Analysis of Research Methods Our analysis reveals that all methods from Wilde and Hess’s spectrum of IS research methods [50] were classified at least once, except ethnography and Grounded Theory. The undisputed majority of researchers are using a conceptual-deductive research method (#75/43%), thus relying upon the authors’ experience, observation, or thought, followed by papers arguing deductively (#32/18%). Case studies were the preferred choice for empirical analysis (#24/14%). Large-scale empirical studies using surveys or qualitative and quantitative cross-section analysis were scarce. It is important to note that a combination of several methods was frequently applied. As an example, concep- 49 tual models were tested by the means of Prototypes, Laboratory and Field Experiments, consequently following a design science approach [18] with evaluation cycles. Frequencies (primary classification) # % 2 1% 32 18% 24 14% 8 5% 75 43% 4 2% 10 6% 0 0% Research Methodology Frequencies (multiple classifications) # 2 32 26 9 77 19 10 18 Action Research Argumentative Deductive Research Case Study Formal Deductive Research Conceptional Deductive Research Laboratory / Field Experiment Literature Analysis Prototyping Qualitative/ Quantitative Cross- Sectional Analy9 5% 11 sis Reference Modeling 6 3% 6 Simulation 1 1% 3 not assignable 4 2% 4 Total 175 100% 217 Table 2: Classification according to Research Methods Employed % 1% 15% 12% 4% 35% 9% 5% 8% 5% 3% 1% 2% 100% 4. Discussion of Findings – Current State of Research and Research Challenges 4.1 SOA Concepts: What are the Characteristics of the SOA Paradigm? Most authors refer to the core Web services standards http, XML, SOAP, and WSDL and the W3C architecture when defining Web services [21]. While there is consensus on Web services definitions, the understanding of SOA is still under discussion. Several authors take a “historical” perspective and argue that SOA extends well-known concepts, notably software componentization and object-orientation [4, 44, 45]. At the same time, services are said to differ from components or objects, e.g. in terms of granularity and interface-orientation [7]. An increasing number of publications refer to SOA as an architectural style, which builds on services as key artifacts [2, 8, 20, 25, 33]. However, opinions differ more widely when it comes to the design principles that characterize SOA as an architectural style. The key challenge here is the lack of consistency between authors with respect to terminology, emphasis, and the levels of abstraction used to organize the design principles. Furthermore, most publications do not relate SOA to prior (enterprise) architecture conceptualizations. Among the early attempts is the architecture model by Legner and Heutschi [27], which extends an existing enterprise architecture model by specifying SOA artifacts at the IS architecture layer. In order to cover the business perspective, future research needs to explore how SOA alters prior enterprise architecture conceptualizations and architecture frameworks. Given the versatility of the SOA concept, it is recommended that future research complements the generic SOA definitions with taxonomies and typologies that characterize service and SOA designs. 4.2 SOA Adoption: How are SOA and Web Services Adopted in Practice? To date, SOA adoption in practice has mainly been studied based on case studies from real-world implementations. Some industries, notably the financial sector, are much more present in these studies than others [1, 2]. While case studies allow researchers to gain valuable insights into SOA adoption, their findings still lack a broader empirical validation. A small group of researchers has started to investigate factors that influence SOA and Web services implementation success [1], while others explores SOA adoption by means of the diffusion of innovation theory. Xu et al. [51] 50 and Haines [16] derive models for measuring the assimilation of SOA from prevailing innovations theories. The studies of SOA adoption are complemented by research on emerging third-party service offerings and market opportunities for service providers. Initial work has been performed with regard to classifying the evolving Web service offerings and their business and pricing models [34]. Given the early stage of research, multiple research opportunities exist. Case study research needs to be complemented by conceptual frameworks that build on prior IS theories. In view of the versatility of the service-oriented paradigm and the differences between industries, it is necessary to particularly investigate the contingencies that exist with regard to SOA adoption. Ideally, this research would identify SOA adoption patterns and success factors. With regard to the market for Web services, there is a need to further explore the specificities compared to other markets of digital goods. 4.3 SOA Practices: How to Design, Implement, and Manage SOAs? Our literature review indicates a concentration of research in this area. Most authors emphasize that Web service standards and SOA frameworks do not yet fully address real-world requirements. As demonstrated by our analysis, a tremendous effort has been undertaken to explore and enhance the design of SOAs and Web services environments, resulting in two types of research contributions: (1) conceptual approaches for extending and enhancing the existing architecture models, and (2) the design of SOAs and Web services environments for specific domains. The first type of research contributions comprises various conceptualizations to enable dynamic Web services composition in order to flexibly support business processes within and across organizations. Among the suggested concepts are Web-services based workflows [5, 24], matching mechanisms [22], and context-aware Web services [30]. Additionally, a very active research community develops semantic descriptions of standard Web services with the help of WSDL-S, ontologies, etc. [3, 41, 52]. With a different focus, the second stream of research comes up with reference architectures or architecture designs for specific domains. Our analysis finds that e-Commerce, supply chain management, knowledge and document management as well as ubiquitous and mobile computing are amongst the most popular domains for SOA implementations. However, a key challenge for future research consists in the analysis of differences and commonalities and the assessment of different SOA and service designs. This calls for a debate on how the quality of SOA designs can be assessed and measured. Consequently, a necessity for widely accepted criteria for the business design of services and reference scenarios arises, as in the case of the Semantic Web Contest, which might provide a valuable input to this debate. With regard to the future design of SOA, the emerging discipline of service engineering offers a number of research opportunities. First, design principles and methodologies for service design need to be further enhanced and validated in order to cover functional as well as non-functional aspects. Second, researchers need to come up with service design proposals for specific domains. While most of the existing research still focuses on the design of SOA-based information systems, many scholars emphasize that SOA imposes major challenges for IT departments that have traditionally been organized around applications. So far, this aspect is being addressed by research on service life-cycle methodologies [37] or visualization tools for service management [6]. Hence, an interesting opportunity for research relates to the implications of the service-oriented paradigm for the strategic IT management in organizations, in terms of roles and governance. 4.4 SOA Impact: What is the Organizational Impact of SOA and Web services? The existing work on SOA impact can be categorized in two streams of research: The first one aims at explaining SOA impact by developing models that explain the business impact of SOA. As an example, Huang integrated web services with competitive strategies using a balanced scorecard approach [19], whereas Müller et al. [31] suggest causal links between SOA design principles and SOA benefits. The second stream of research identifies SOA benefits. This comprises visionary papers [15] as well as or studies of benefits in specific scenarios, for example customer relationship management [43] or small and medium-sized enterprises [39]. From the literature review, two main 51 limitations in the current state of research were identified: first, there is still no model for analyzing the economic rationale for SOA based on prior IS theories. In this regard, the current debate on SOA’s business impact fails to pick up on earlier IS research on the effectiveness and value of IS. Second, the existing studies have investigated SOA benefits based on single or multiple case studies. They have identified a great variety of benefits of SOA implementations that range from infrastructure to operational, organizational, and strategic benefits. However, their findings have neither been systematically consolidated into a framework nor validated by means of a broader empirical basis. Future SOA research needs to apply and extend prior IS theories and systematically study how SOA improves the capabilities of an organization which in turn creates business value. Field of Research 1. SOA Concept: What are the characteristics of the SOA paradigm? State of Discussion • SOA as architectural style characterized by artifacts and design principles • Web services as the promising SOA implementation technology • SOA case studies • Innovation theory for explaining SOA adoption • Extensions and enhancements of SOA (process composition, semantics, …) • SOA design for specific domains • Service life-cycle management Future Research Challenges • SOA in the context of enterprise architectures • SOA and service taxonomies / classifications 2. SOA Adoption: • Conceptual models explaining SOA adopHow are SOA and web tion services adopted? • Success factors based on empirical studies 3. SOA Practice: • Assessment criteria for SOA/service design How to design, imple• Domain-specific reference architectures ment, and manage SOAs? • Methodologies for service engineering • SOA in the context of strategic IT management 4. SOA Impact: • Exploration of SOA benefits based on • Benefit frameworks covering strategic, What is the organizational case studies operational and technical dimensions impact of SOA? • Several lines of argumentation for • Models explaining the economic rationale explaining SOA business impact for SOA based on prior IS theories Table 3: SOA Research – Status and Future Research Challenges 5. Summary and Conclusions This paper profiles the existing SOA and Web services research based on four generic research questions. Our analysis of 175 publications has shown that SOA and Web services research has significantly developed since 2000. Nevertheless, the literature analysis also illustrates the early stage of research in this field, since most publications focus on either enhancing SOA and Web service concepts or exploring their adoption in practice. Interestingly, few publications address the remaining two fundamental research questions, namely the characteristics of the SOA paradigm and the organizational impact of SOA. However, “analytic theory is necessary for the development of all the other types of theory” [14]. This need for clarifying the fundamental definitions related to our phenomena of interest might also explain the difficulties in further exploring its adoption as well as assessing the quality of SOA and service designs. Most importantly, we conclude that business aspects are still underserved by SOA research. This generates future research opportunities related to the four research questions: in order to better understand and describe the role of SOA in organizations, IS researchers need to relate SOA to the broader context of the enterprise architecture. With regard to SOA adoption, the existing case study research has to be complemented by conceptual frameworks that build on prior IS theories for explaining SOA adoption and success factors. The future design of SOAs calls for more research in the field of service engineering, covering non-functional aspects as well as domain-specific business logic. From the perspective of strategic IT management, more research is needed to explore the implications of SOA, particularly related to roles and governance. In order to further understand the impact of SOA, researchers need to further investigate how SOA investments improve a firm’s capabilities and thereby create business value. While our study provides interesting insights into the current state of SOA research, it is 52 important to mention the limitations: First, the focus of our literature analysis has been peerreviewed journal and selected conference publications. While this ensures the quality of the publications, it excludes valuable contributions that have been presented at workshops or are currently in the review process for journal publication. Second, we limited our scope to SOA and Web services, thereby excluding predecessors of SOA, notably CORBA. Third, the field of SOA and Web services is extremely dynamic with a strong increase in publications over the last three years. Consequently, our research presents a mere snapshot of the SOA field. References [1] ANDERSON, D., HOWELL-BARBER, H., HILL, J., JAVED, N., LAWLER, J., and ZHENG, L., A Study of Web Services Projects in the Financial Services Industry, in: Information Systems Management, 22, 1 (2005), pp. 66-76. [2] BASKERVILLE, R., CAVALLARI, M., HJORT-MADSEN, K., PRIES-HEJE, J., SORRENTINO, M., and VIRILI:, F., Extensible Architectures: The Strategic Value of Service-Oriented Architecture in Banking, European Conference on Information Systems 2005, 2005. [3] BELL, DAVID, CESARE, SERGIO, IACOVELLI, NICOLA, LYCETT, MARK, MERICO, and ANTONIO, A framework for deriving semantic web services, in: Information Systems Frontiers, 9, 1 (2007), pp. 69-84. [4] BIRMAN, K.P., Like it or not, web services are distributed objects, in: Communications of the ACM, 47, 12 (2004), pp. 60-62. [5] BUHLER, P.A., and VIDAL, J.M., Towards Adaptive Workflow Enactment Using Multiagent Systems, in: Information Technology and Management, 6, 1 (2005), pp. 61-87. [6] DE PAUW, W., LEI, M., PRING, E., VILLARD, L., ARNOLD, M., and MORAR, J.F., Web Services Navigator: Visualizing the execution of Web Services, in: IBM Systems Journal, 44, 4 (2005), pp. 821-845. [7] ELFATATRY, A., Dealing with change: components versus services, in: Communications of the ACM, 50, 8 (2007), pp. 35-39. [8] ERL, T., Service-oriented Architecture. Concepts, Technology, and Design, Upper Saddle River 2005. [9] EYMANN, T., and WINTER, R., SOA – Ein neues Paradigma der Gestaltung verteilter Informationssysteme? , in: Wirtschaftsinformatik, 50, 1 (2008), p. 70. [10] FARRELL, J.A., and KREGER, H., Web services management approaches, in: IBM Systems Journal, 41, 2 (2002), p. 212. [11] FETTKE, P., State-of-the-Art des State-of-the-Art: Eine Untersuchung der Forschungsmethode „Review“ innerhalb der Wirtschaftsinformatik, in: Wirtschaftsinformatik, 48, 4 (2006), pp. 257-266. [12] GLASER, B.G., Theoretical sensitivity. Advances in the methodology of Grounded Theory, Mill Valley 1978. [13] GLASER, J.P., Too Far Ahead of the IT Curve?, in: Harvard Business Review, 7/8 (2007), pp. 29-39. [14] GREGOR, S., The Nature of Theory in Information Systems, in: MIS Quarterly, 30, 3 (2006), pp. 611-642. [15] HAGEL III, J., and BROWN, J.S., Your Next IT Strategy, in: Harvard Business Review, 79, 9 (2001), pp. 105113. [16] HAINES, M., Levels of Web Service Adoption: From Technical Solution to Business Opportunity, Americas Conference on Information Systems 2003 2003. [17] HEFFNER, R., SOA Adoption: Budgets Don't Matter Much, Forrester Research, 2008. [18] HEVNER, A.R., MARCH, S.T., PARK, J., and RAM, S., Design Science in Information Systems Research, (2004). [19] HUANG, C.D., and QING, H., INTEGRATING WEB SERVICES WITH COMPETITIVE STRATEGIES: THE BALANCED SCORECARD APPROACH, in: Communications of AIS, 2004, 13 (2004), pp. 57-80. [20] HUHNS, M.N., and SINGH, M.P., Service-oriented Computing: Key Concepts and Principles, in: IEEE Internet Computing, 9, 1 (2005), pp. 75-81. [21] HÜNDLING, J., and WESKE, M., Web Services: Foundation and Composition, in: Electronic Markets, 13, 2 (2003), p. 108. [22] JUHNYOUNG, L., and PARK, M.S., INTEGRATION AND COMPOSITION OF WEB SERVICE-BASED BUSINESS PROCESSES, in: Journal of Computer Information Systems, 44, 1 (2003), pp. 82-92. [23] KACZMAREK, T., and WĘCEL, K., Hype over Service Oriented Architecture Continues, in: Wirtschaftsinformatik, 50, 1 (2008), pp. 52-58. [24] KHALAF, R., KELLER, A., and LEYMANN, F., Business processes for Web Services: Principles and applications, in: IBM Systems Journal, 45, 2 (2006), pp. 425-446. [25] KRAFZIG, D., BANKE, K., and SLAMA, D., Enterprise SOA, 2004. [26] LAARTZ, J., SOA revolutioniert das Management in: Wirtschaftsinformatik, 50, 1 (2008). [27] LEGNER, C., and HEUTSCHI, R., SOA Adoption in Practice - Findings from Early SOA Implementations, European Conference on Information Systems 2007, Universtity of St. Gallen, 2007. 53 [28] LEYKING, K., DREIFUS, F., and LOOS, P., Serviceorientierte Architekturen, in: Wirtschaftsinformatik, 49, 5 (2007), pp. 394-402. [29] LIEBHART, D., SOA nach dem Hype, manage it, ap Verlag GmbH, 2007, pp. 74-77. [30] MAAMAR, Z., BENSLIMANE, D., and NARENDRA, N.C., What can context do for web services?, in: Communications of the ACM, 49, 12 (2006), pp. 98-103. [31] MÜLLER, B., VIERING, G., AHLEMANN, F., and RIEMPP, G., Towards Understanding the Sources of the Economic Potential of Service-Oriented Architecture: Findings from the Automotive and Banking Industry, European Conference on Information Systems 2007, Universtity of St. Gallen, 2007. [32] NATIS, Y., Service-Oriented Architecture Scenario, Stamford 2003. [33] NEWCOMER, E., and LOMOW, G., Understanding SOA with Web Services, Maryland 2004. [34] NÜTTGENS, M., and DIRIK, I., Geschäftsmodelle für dienstebasierte Informationssysteme – Ein strategischer Ansatz zur Vermarktung von Webservices, in: Wirtschaftsinformatik, 50, 1 (2008), pp. 31-38. [35] PALVIA, P., LEARY, D., EN, M., VISHAL, M., PRAVEEN, P., and SALAM, A.F., Research Methodologies in MIS: An Update, in: Communications of the Association for Information Systems, 2004, 14 (2004), pp. 526-542. [36] PAPAZOGLOU, M.P., TRAVERSO, P., SCHAHRAM, D., LEYMANN, F., and KRÄMER, B.J., ServiceOriented Computing: A Research Roadmap, Dagstuhl Seminar Proceedings 2006 Internationales Begegnungs- und Forschungszentrum für Informatik (IBFI), 2006. [37] PAPAZOGLOU, M.P., and VAN DEN HEUVEL, W.-J., Life Cycle Methodology, in: Communications of the ACM, 50, 10 (2007), pp. 79-85. [38] RAINER JR., R.K., and MILLER, M.D., Examining differences across journal rankings, in: Communications of the ACM, 48, 2 (2005), pp. 91-94. [39] RAY, A.W., and RAY, J.J., Strategic benefits to SMEs from third party web services: An action research analysis, in: The Journal of Strategic Information Systems, 15, 4 (2006), pp. 273-291. [40] ROBB, D., At Your Service: .NET Redefines the Way Systems Interact, in: Information Strategy: The Executive's Journal, 19, 1 (2002), p. 13. [41] SAYAH, J.Y., and ZHANG, L.-J., On-demand business collaboration enablement with web services, in: Decision Support Systems, 40, 1 (2005), pp. 107-127. [42] SCHMIDT, C., "Am Material": Auswertungstechniken für Leitfadeninterviews, in: Friebertshäuser, B., and Prengel, A., (eds.), Handbuch Qualitative Forschungsmethoden in der Erziehungswissenschaft, Weinheim 1997, pp. 544-568. [43] SHAH, J.R., and MURTAZA, M.B., EFFECTIVE CUSTOMER RELATIONSHIP MANAGEMENT THROUGH WEB SERVICES, in: Journal of Computer Information Systems, 46, 1 (2005), pp. 98-109. [44] SIEDERSLEBEN, J., SOA revisited: Komponentenorientierung bei Systemlandschaften, in: Wirtschaftsinformatik, 49, Sonderheft (2007), pp. 110-117. [45] SINZ, E.J., SOA und die bewährten methodischen Grundlagen der Entwicklung betrieblicher IT-Systeme in: Wirtschaftsinformatik, 50, 1 (2008), pp. 70-72. [46] STRAUSS, A., and CORBIN, J., Grounded Theory in Practice, Thousand Oaks 1997. [47] STREIBICH, K.-H., Der Paradigmenwechsel ist in vollem Gange in: Wirtschaftsinformatik, 50, 1 (2008), pp. 7374. [48] WEBER, R.P., Basic Content Analysis, London 1990. [49] WEBSTER, J., and WATSON, R.T., Analyzing the Past to Prepare for the Future: Writing a Literature Review, in: MIS Quarterly, 26, 2 (2002), pp. xiii-xxiii. [50] WILDE, T., and HESS, T., Forschungsmethoden der Wirtschaftsinformatik - Eine empirische Untersuchung, in: Wirtschaftsinformatik, 49, 4 (2007), pp. 280-287. [51] XU, H., SHARMA, S.K., and HACKNEY, R., Web services innovation research: Towards a dual-core model, in: International Journal of Information Management, 25, 4 (2005), pp. 321-334. [52] YE, C., LINA, Z., and DONGSONG, Z., Ontology-Supported Web Service Composition: An Approach to Service-Oriented Knowledge Management in Corporate Financial Services, in: Journal of Database Management, 17, 1 (2006), p. 67. [53] ZENCKE, P., and EICHIN, R., SAP Business ByDesign – Die neue Mittelstandslösung der SAP, in: Wirtschaftsinformatik, 50, 1 (2008), pp. 47-51. 54 GESCHÄFTSMODELLE FÜR BUSINESS SERVICES Das World Wide Web (WWW) hat zur Entwicklung einer Vielzahl spezialisierter Dienste geführt. Während einige dieser Dienste auf spezifische Anforderungen des WWW ausgerichtet sind (z.B. Suchdienste, Online Community Dienste), haben andere das Dienstleistungsspektrum im Umfeld des klassischen (offline) Geschäfts erweitert. Der Track betrachtet Dienstleistungsinnovation aus der Perspektive von Geschäftsmodellen: Was sind die spezifischen Leistungsversprechen, wie kann ein Netzwerk von Dienstleistungsanbietern konfiguriert werden und wie können Erträge erzielt werden? Darüber hinaus sollen Anforderungen an die Gestaltung, Innovation und Konfiguration von Dienstleistungen sowie die Verbindung zwischen Online- und Offline-Angeboten erörtert werden. Leitungsgremium: Stefan Klein, Westfälische Wilhelms-Universität Münster (Federführender) Hubert Österle, Universität St. Gallen Yves Pigneur, Universität Lausanne Programmkomitee: Philipp Bensel, Technische Universität Berlin Eric Dubois, Centre de Recherche Public Henri Tudor, Luxembourg Jaap Gordijn, Free University Amsterdam Claudia Loebbecke, Universität Köln Carolin Löffler, Universität Erlangen Thomas Mörsdorf, T-Online, Darmstadt Alexander Osterwalder, Arvetica, Genf Gertraud Peinel, Fraunhofer FIT Esko Penttinen, Helsinki School of Economics Alexander Schwinn, eBay GmbH, Kleinmachnow Frederic Thiesse, Universität St. Gallen Nadine Vehring, Universität Münster Maria Wimmer, Universität Koblenz BUSINESS MODELS FOR EGOVERNMENT THE BMeG METHOD Gertraud Peinel1, Matthias Jarke, Thomas Rose2 Abstract So far, business models have been investigated in the context of eCommerce focusing on economic issues but they do not consider the viewpoints of authorities embarking on public private partnerships for citizen services. This paper describes our modelling method BMeG that is dedicated to the planning of business models for eGovernment services. BMeG allows one to model options of value chains with various perspectives including advantages and disadvantages with impacts on policies. BMeG depicts the added value of potential partnerships and thus supports authorities to decide on alliances for public private partnerships or other financing models for eGovernment services. 1. Introduction Public sector information furnishes a valuable information resource for many businesses. Thus, the design of value chains across different stakeholders capitalizing on public sector information is an interesting business issue. Apart from overcoming data exchange deficiencies, the question arises of how to set-up a business collaboration between the private as well as the public sector. Our initial experience is based on a project for the dissemination of air quality information in the context of European air quality portals (APNEE [1]). Here, environmental agencies wanted to provide better services to citizens by timely delivering air quality information also on mobile phones (via SMS) to reach the citizen anywhere and anytime whenever certain emission values change for the worse. Such a service certainly targets people suffering from asthma, but could also inform the unaware general public about hazardous episodes in order to have an influence on their behaviour (e.g., they are going by bus instead of using the car due to smog warnings). The question is: should a public actor implement and operate such a kind of service alone, or might this also be an attractive business opportunity for a private stakeholder? But, how to generate tangible as well as intangible benefits and revenues for all partners in such a value chain, or in other words, how to design a sustainable business model? Citizens and businesses ask for public services available at all times and all places. This calls for a provision of services by different access channels, i.e., Internet, mobile and fixed phone, voice server and the like („one-stop services and seamless government“ [2]). Such demand for innovations from public authorities (innovation pull) fosters the utilisation of new technologies, which in turn enables new transaction patterns between public administrations and the citizen (technology push). However, public coffers are almost empty. Hence, authorities hesitate to invest in solutions 1 2 Fraunhofer FIT, PRO, Schloß Birlinghoven, 53754 Sankt Augustin, Germany RWTH Aachen, Lehrstuhl Informatik V, Ahornstr. 55, 52056 Aachen, Germany 57 with an uncertain acceptance and impact and therefore most authorities tend to focus on the most visible mean, i.e., Internet services. But, attractive eGovernment essentially calls for push services, which notify actively about news and changes. This can be done by email, fax, but especially fast and efficient by short message services (SMS) taking into account the current spread of mobile phones in the world. Unfortunately, SMS causes additional costs compared to the Internet since the sending of messages must be reimbursed to the telecommunication provider. Moreover, such implementations are often tailored to one specific telecommunication provider and seldom shared with other departments. Cost and effort savings are therefore not generated [3]. On the other hand, commercial information service providers are searching for new content and services to improve their position in competition. Taking into account the market value of public sector information (68,5 billion Euro already in the year 2000 [4]) and the technical capabilities of commercial information service providers, public authorities should open their repositories and cooperate with the private sector, instead of acting as lone fighters and hindering the development of market-driven services [5]. Therefore, public private partnerships should be investigated in the course of planning eGovernment services [6]. Such partnerships can be conceptualised as value chains describing the roles and relationships of cooperating organisations, the exchange of goods, information and money between these partners and the main advantages for each party, which is in fact the definition of business models according to [7]. It is clear that this concept also applies to the domain of eGovernment, since public authorities are also offering products and services to citizens (G2C) and business (G2B). Once such cooperations are modelled, contributions of single stakeholders to multilateral value chains become explicit. In addition, it can be described, which services can be delegated to other partners, whether this provides benefits or disadvantages for what partners in the value chain, and what impact this could have on policies of those partners. Modelling such value chains makes it therefore possible to plan these partnerships and to select the most promising one based on an analysis according to the win-win-situation of partners. One important point is, that for public authorities the benefits of participation in such value chains might not be purely economic, targeting financial revenues, but might serve political or legal reasons [8]. This comprises, for example, policies like “highest possible reach”, “fast information transfer”, or “compliance with rules and regulations”; in contrast to commercial policies like “increase of shareholder value” or “market penetration”. A pure concentration on monetary goals is therefore not sufficient for authorities. Unfortunately, the few existing modelling approaches of such value chains focus on commercial market players and their business relationships or internal interactions between departments of companies [9], [10]. In the following chapter we introduce our BMeG modelling method, which supports the design of different variants of value chains for eGovernment services. Section 3 covers an application example to demonstrate how BMeG can be applied, while section 4 discusses BMeG with respect to related work and research in this area. An outlook and summary finalises this paper. 2. Business models for eGovernment - BMeG We use in this paper the term business model according to [7] as model of the roles and relationships of an organisation, its customers and suppliers, as well as the flows of goods, information and money between these parties and the main benefits for those involved. According to this, a business model consists at least of roles, relationships, organisations, flows of goods, and benefits. We developed the BMeG method showing how these concepts have been abstracted, framed by a modelling procedure and supported by a graphical editor. Partners in BMeG value chains have object exchanges, which must not be mutually dependent. Financing options and costs can be modelled with the exchange of monetary objects, and the concept “policy” in particular pinpoints to legal regulations, the mission of an authority as well as the business policy of a company. The as58 signments of advantages and disadvantages per partner allows one to represent arguments for participation by having a bearing on ruling policies. The BMeG editor has been designed as tool support for capturing the know-how and rationale of related business models. It makes it possible to model and maintain different variants of value chains, also for reasons of transparency. BMeG has been validated in a number of large European application projects concerning, e.g., air quality monitoring, city governance, and emergency management. The BMeG model Our modelling method BMeG, Business Models for eGovernment, comprises a conceptual model, a modelling approach, and a specific tool specifically designed for a domain-oriented capture and presentation of the most important aspects for this special breed of offerings. Value Chain 1 consists of 1 consists of Organisation is consists of 2..N 1..N 1 Object Exchange 1 1..N Partner from 1 1..N 1 to 0..1 has 1..N 0..N has 1 Object 0..N plays 0..N relates to has 1..N 0..N Policy 0..N Disadvantage 1 0..N has impact on Advantage Role offers/ performs 0..N 0..N has impact on offers/ performs 0..N 0..N Service 0..N Figure 1: BMeG Model in ER Notation The BMeG model is based on the following propositions: • An eGovernment service can be operated in different variants of value chains with at least two different partners (commercial or public) and object exchanges between these partners (the end customer, the citizen, is also seen as partner). Public private partnership (PPP) partners are complementary according their tasks in such a value chain [11]. This is realised in BMeG through the concepts of roles and services. • Each partner in a value chain has advantages and disadvantages (arguments) in its role. These arguments have respective positive or negative impacts on the policies*) of partners. By assessing the advantages and disadvantages, the service designer can predict whether a value chain can bring a win-win-situation to all participants, i.e., the advantages outbalance the disadvantages. Such value chains might work when implemented, while others might fail in the long term. • Also, different possible financing options of eGovernment services (i.e., funding, sponsoring, advertisements, payment, hosting, shared operation) can be modelled (by means of different object exchanges between partners). • Financial aspects like spreadsheet calculations of the amount of exchange values are not emphasised; monetary values could be charged among partners, but do not necessarily have to be. *) The term policies does not relate to pure governmental context, but describes in general "a high-level overall plan embracing the general goals and acceptable procedures" [12]. 59 Even for commercial partners an exact assessment of the profit of a business could be difficult, since a participation in eGovernment projects could be also valued as strategic method for marketing or support of other business services. Therefore, no quid pro quo is required in BMeG though it can be modelled if required in specific cases. • Particularly, investments for public services might not be reimbursed monetarily, because public authorities often follow legal obligations and eGovernment perspectives by serving citizens. The return value for the authority would be the successful impact of such a service, e.g., more citizens are informed. • This also leads to the BMeG design rule that not each value transfer results in a return value. A return value can also come from a different partner in the value chain, or from no one. Figure 1 depicts this BMeG model in entity relationship notation. In a nutshell, BMeG value chains consist of at least two cooperating partners exchanging at least one object of value. Each partner carries exactly one role while offering one or more services. Services can be assigned to roles or partners depending on level of detail and assignment of organisations to roles. Each partner has policies and arguments for participation, i.e., advantages and disadvantages with impact on own policies or on policies of other organisations. An object exchange is an attributed relation between two partners exchanging arbitrary value objects. These objects can be described in more detail (labels, financial values, etc.). Policies Policies Policies Policies + - 6) NachNachAdvanteile teile tage NachDisNachteile advanteile tage NachDisNachteile advanteile tage NachNachAdvanteile teile tage Modelling Process Objects Authority Role1 Authorities NachDisNachteile advanteile tage NachNachAdvanteile teile tage Role2 NachDisNachteile advanteile tage Objects Objects P1 NachNachAdvanteile teile tage P2 End Customer Role3 Role4 5) Aggregated Roles 4) Partner 3) Roles 2) Services 1) Value Chain? End Customer Figure 2: BMeG Modelling Approach The BMeG modelling approach is defined as follows. Assume an authority plans to implement an eGovernment service. The questions arises, whether to provide the service by themselves or to take other partners on board to share efforts and risks. But which partners could have advantages to join such an endeavour? The steps to model a possible value chain with BMeG are shown in Figure 2. Pre-work should be the definition of policies of the modelling authority (might already be done in previous modelling projects). 60 1) Clear definition of the service, then identification and structuring of single activities that can be executed independently as services; 2) Deduction of roles offering these activities, possible merging of roles (if need be, also later supplement or further merging); 3) Negotiation with potential partners to identify possible object exchanges and financing options, and also to find out their motives and thus policies; Then, definition of organisations as possible partners; 4) Aggregation of roles according the partners selected; 5) Definition of object exchanges between these partners; 6) Definition of the advantages and disadvantages for the modelling authority, definition of partner policies and their arguments for participation. Derivation of possible cross influences (arguments of one partner have influence on policy of another partner). By reiterating these steps different value chain options with same or different partners can be created, with equal or different financing options. Then, analysis can commence, i.e., comparison of advantages and disadvantages per partner and value chain, and an estimation whether win-winsituation can be reached in one of these options. All these steps are not meant to be done strictly sequentially, but refinements due to further classifications are possible. Note that external investors or public funding can also be modelled by financial roles. This is especially expedient to record their funding goals and sponsoring demands. The BMeG editor The BMeG editor supports the modelling of value chains and exchange relationships, and makes effective use of a graphical folder concept to deal with abstraction within highly complex models. Figure 3 presents the BMeG Editor. The left frames show 1) project and variant trees for selection, and 2) objects stored in a database (organisations, roles, policies and services). They can be edited in the tree data structure and dragged to the central graph panel (in the middle). The right frames are designated for overview and orientation purposes. They show an overview image for zooming and orientation, and below a properties table for each selected node or edge in the graph panel. The central graph panel is organised in tabs, representing the variants of value chains. Above each graph panel a toolbar is located allowing typical graph functions like zooming and panning as well as grouping and layout functions of the editor. Project Selection Variants Overview Organisations Properties of Nodes and Edges Roles Policies Services Figure 3: The BMeG Editor The graph panel with nodes and edges serves as main modelling frame and provides graph specific functions like zooming, panning, etc. Entities of the BMeG model like organisations, roles, policies and services are dragged from the left lower frame to the graph panel and dropped. Object exchanges are modelled with directed and attributed edges between roles or organisations. The attributed icon can be arbitrarily labelled. 61 Assignments like “organisation has advantage” or “organisation has policy” are not represented by means of directed edges, but by placement in common folders; this saves edges and thus fosters readability and clarity of (larger) models. Also, it allows one to model the sharing of policies, advantages, and disadvantages between organisations by just placing them in the same folder. Organisations as well as advantages, disadvantages, services, and policies can also be grouped in folders, which can be opened and closed depending on the current detail of interest of the modeller. All objects can be placed freely on the panel. Moving them causes all attached folders and edges to follow their motion. Layout functions allow to re-arrange all icons according to graph layout algorithms (currently hierarchical, organic, or orthogonal layout), which prevents that the modeller gets lost in too large, complex models. Service Folder Role Folder Partner Advantage Disadvantage Object exchanges Policies Folder Folder Disadvantages Advantages Folder Policies Figure 4: Modelling with the BMeG editor As presented in figure 4, a graph panel holds the model of a variant of a value chain. It is visualised by icons (for object nodes), folders, or edges: Object nodes: Partner Advantage Disadvantage Policy Folder nodes: Partner (optional) Role Services Advantages Disadvantages Policies Edges: Object exchange (attributed with labelled icon) Relations „Advantage or disadvantage has impact on policy“ (optional with label) (other relationships by directed edges are also possible) 3. Application example The BMeG method has been initially applied in the context of the EC funded project APNEE (Air Pollution Network for Early Warning and Information Exchange in Europe) [13]. Project APNEE evaluated the potential of raising money with information services revolving around environmental data; or at least to create a win-win-situation between public and private partners when operating the service. The project implemented ubiquitous information services available on mobile phones (WAP, SMS, MMS), PDA, street panels, voice servers, and Internet. These services are operated in public private partnerships while each partnership creates dedicated value for the end user, i.e., the 62 citizen as customer. The following figure shows an example of such a partnership: the APNEE value chain of Germany. Partners have been UMEG (Center for Environment Measurement, Environmental Data Collection and Equipment Security), t-info (former the directory portal of German telecom), t-mobile (German mobile telecommunication provider), and the citizen as end customer. Figure 5: Application of BMeG to project APNEE-TU (example value chain in Germany) The example in figure 5 shows the following BMeG instantiation: • Partner UMEG as environmental authority delivers its measured and quality approved air quality data to partner t-info for further processing and final delivery to the customer – the citizen. As role specific services it has to provide the data and an air quality index (AQI). UMEG’s policy is to spare resources, to be innovative, to implement regulations and to reach most citizens with this information. Its advantages for participation in this value chain are the innovative spread of information by mobile phone, that it spares resources since it does not have to implement the service itself, and that it gets paid by t-info for data delivery. • t-info as directory service picks up the data, bundles it with other data like weather and pollen news, and geo-references it on a map for Internet access. It also provides the polished data to tmobile for selling it as bundled service on their WAP portal. t-info’s advantage is that they get new and qualified data for offering, but they have to pay for the data supply, and only a niche market might want to access the service via t-mobile and pay for it. The BMeG model shows clearly, that the advantages of this value chain lied on the side of the authority, but the disadvantages on side of the commercial partner t-info. And in fact, this partnership broke, when t-info changed its policy of being a search directory syndicating sources from the market to being a search engine working on in-house sources like address data. If the authority had supported the partnership with financial reimbursement or by signing over the commercial use of the data, the niche argument as well as the payment argument might have been equalized. Then, the partnership might have been survived as side service even the business policy had changed. 63 Project APNEE showed also that such partnerships strongly depend on local conditions [13]. This means, that value chains for eGovernment highly vary based on content, country and region, and thus cultural acceptance, market situation and more also differ. That is why the question arose of how to implement these different value chains that are “profitable” for different stakeholders while by the same time serve citizen needs. 4. Discussion When talking about business models and value chains, business process modelling approaches emerge as possible solution for modelling and editing since business process modelling approaches are also covering the modelling of cooperations of enterprises in value chains (see, e.g., [14]). But business process modelling and business modelling serve different objectives [15]. Although we found two explicit business modelling methods, we argue that their concentration on monetary values in the frame of eCommerce is not sufficient for our domain, but tangible and intangible benefits are the main decision points. Only the requirements engineering method i* accompanies us a short way by employing the concept of goals as modelling paradigm [16]. This has been broadened by us to represent policies, and by introducing arguments pro and con that impact these policies respectively. Among the few existing modelling proposals for business models, the e3value method describes a value proposition using a conceptual value model that shows how actors create, distribute, and consume objects of economic value [10]. The ontology can represent a network of actors that jointly offer a complex product or service consisting of separate products and services [19]. e3value introduced the terms actors and value objects, which are also used in BMeG. Also, the initial visualization in BMeG was inspired by the e3value editor, but the version presented here goes significantly beyond it. In BMeG, no counter value is required from a cooperating partner, since we argue that values can also come back from a different partner, or not at all, because the overall functioning of the chain (e.g., the impact on the citizen) might be the whole return for the authority. Economic calculations about expenses and return is thus less emphasized than in e3value, but can be easily included when needed. Thorough financial analysis might be added to BMeG, but it is well known that the assessment of investment and fulfilment of public policies is often hard to assess [20]. e3value does not support concepts like policies, advantages and disadvantages. Differences between value chains can thus not be evaluated apart from financial flows. We argue that this is not sufficient for the decision making of authorities for public private partnerships. The BMO (Business Model Ontology) methodology [21] describes the business model of an enterprise in an UML-like style, presenting a “conceptualization and formalization into elements, relationships, vocabulary and semantics of the essential subjects in the e-business model domain” [9]. As in e3value, the main aim is the modelling of commercial partnerships in an extensive and detailed way. Due to this detailedness it serves more for describing an existing business than planning a new, fictive one. BMO also considers actors like BMeG and e3value, but the main concentration is on the activities. In BMeG, activities are represented by the concept of services, but their definition is not the key of the model. Currently, BMO is missing tool support such as an instantiation editor. This is a main component in BMeG, since authorities should try out several options and compare the visible results for a final decision about which choice to take. It is unclear, how different variants of value chains can be compared in BMO. The i* methodology supports the modelling of complex strategic relationships between actors of organisations. “Actors depend on each other for goals to be achieved, tasks to be performed, and resources to be furnished. Networks of strategic dependencies can be analyzed for opportunities and vulnerabilities. Means-ends reasoning is used to help explore alternatives” [16]. This modelling method is used for goal modelling in the requirements engineering phase of software system development processes. Goals generally describe objectives that a software or system should achieve 64 through cooperation of actors in the intended software and in the environment [22]. Through this closeness to BMeG concepts, it is possible to model value chains with i*, but (i) soft goals do not represent the overall policies of authorities, whereas in our approach soft goals result from policies; (ii) i* goals are “satisfied” by tasks, but value chains may fulfil policies by their general impact; (iii) missing in the i* model is the grouping of actors offering together a service, but with different policies/goals; (iv) i* possesses entities which are not required for business models like agents, positions or links; (v) the existing tools for i* models do not show easily which advantages or disadvantages different models have. Nevertheless, i* is the only methodology which is at a similar level of strategic abstraction from specific processes we require for the BMeG setting. And it can thus be seen as an important precursor of our, more domain-specific approach. 5. Outlook and summary So far, eGovernment services have not been studied in a conceptual manner with policies and strategic advantages and disadvantages. BMeG strives to make such strategic alliances of private and public partners transparent in order to assess their sustainability. Public private partnership have been mostly investigated for construction and development as well as for infrastructure projects, but rarely for IT-based eGovernment services. Moreover, taking into account the revenues possible due to public sector information, such public private partnerships will provide benefits for authorities, businesses, and citizens and thus offer completely new ways of service provisions. BMeG supports authorities and private partners to plan and select alliances by modelling variants of value chains, deriving advantages and disadvantages of partners involved, and thus assessing which partnership could be operated sustainable. Participation arguments and impacts on policies have been accented by BMeG, rather than emphasising monetary equivalences of value exchanges. The BMeG model, methodology, and tool has been validated in a number of large-scale European projects. The approach has been essential to develop and evaluate different dissemination channels and business models for the dissemination of air quality information in five different European countries in APNEE [13], whereas BMeG helped four European regions to compare their very different strategic approaches on how to deal with typical problems currently facing city and rural governance in the Use-Me.GOV project [23]. The availability of a focussed, domain-specific solution, dedicated to eGovernment issues proved to be a key success factor in all of these case studies rather than just considering process modelling issues or purely commercial approaches. BMeG is currently applied to the case of large-scale regional emergency management in an ongoing project. Here, BMeG uncovers more tactical and strategic considerations for the provision of services while considering resource limitations. 65 6. Literature [1] BØHLER, T., KARATZAS, K., PEINEL, G., ROSE, T., and SAN JOSE, R., Providing multi-modal access to environmental data—customizable information services for disseminating urban air quality information in APNEE. Computers, Environment and Urban Systems, 2002. 26(1): p. 39-61. [2] WASSENAAR, A. E-governmental value chain models - E-government from a business (modelling) perspective. in 11th International Workshop on Database and Expert Systems Applications. 2000. [3] HILL, H., Electronic Government - Strategie zur Modernisierung von Staat und Verwaltung, in Aus Politik und Zeitgeschichte (B 39-40/2002), 2002, Bundeszentrale für politische Bildung. [4] EUROPEAN COMMISSION, Commercial exploitation of Europe’s public sector information, PIRA International Ltd., 2000. [5] WEISS, P., Borders in Cyberspace: Conflicting Public Sector Information Policies and their Economic Impacts, 2002, U. S. Department of Commerce, National Oceanic and Atmospheric Administration, National Weather Service. [6] SCHOLL, H.J., Electronic Government: Make or Buy? LECTURE NOTES IN COMPUTER SCIENCE, 2003: p. 220-227. [7] BOUWMAN, H. The Sense and Nonsense of Business Models. in International Workshop on Business Models. 2002. Lausanne. [8] STAHL, B.C., The Ethical Problem of Framing e-Government in Terms of e-Commerce. The Electronic Journal of e-Government, 2005. 3(2): p. pp. 77-86. [9] OSTERWALDER, A. and PIGNEUR, Y. An e-Business Model Ontology for the Creation of New Management Software Tools and IS Requirement Engineering. in CAiSE'2002 Doctoral Consortium. 2002. Toronto. [10] GORDIJN, J., e3value in a Nutshell, in International workshop on e-business modeling2002: HEC Business School, Lausanne. [11] MEDIAKOMM, Betreibermodelle für kommunale Portale im Internet, Analysen - Konzeptionen - Lösungen, 2001. [12] MERRIAM WEBSTER. Online Dictionary. http://www.merriam-webster.com/dictionary/policy. [13] PEINEL, G. and ROSE, T. Dissemination of Air Quality Information: Lessons Learnt in European Field Trials. in EnviroInfo 2004. 2004. Geneva, Switzerland. [14] HOFER, A., ADAM, O., ZANG, S., and SCHEER, A.W., Architektur zur Prozessinnovation in Wertschöpfungsnetzwerken. Veröffentlichungen des Instituts für Wirtschaftsinformatik, ed: Prof. Dr. Dr. h.c. mult. August-Wilhelm Scheer, 2003. [15] GORDIJN, J., AKKERMANS, J.M., and VAN VLIET, J.C. Business modelling is not process modelling. in Conceptual Modeling for E-Business and the Web. 2000. [16] YU, E. Strategic Modelling for Enterprise Integration. in 14th World Congress of International Federation of Automatic Control (IFAC’99). 1999. Beijing, China: Pergamon, Elsevier Science. [17] SCHEER, A.-W. and THOMAS, O., Geschäftsprozessmodellierung mit der ereignisgesteuerten Prozesskette. Das Wirtschaftsstudium 34 (2005), Nr. 8-9, 2005: p. p. 1069-1078. [18] WEIGAND, H., JOHANNSSON, P., ANDERSSON, B., BERGHOLTZ, M., EDIRISURIYA, A., and ILAYPERUMA, T., On the Notion of Value Object, in 18th International Conference on Advances in Information Systems Engineering - CAiSE 2006, E. Dubois and K. Pohl, Editors. 2006, Springer-Verlag Berlin Heidelberg: Luxembourg. p. 321-335. [19] GORDIJN, J. and AKKERMANS, H., Designing and Evaluating E-Business Models. IEEE Intelligent Systems, 2001. 16(4): p. 11-17. [20] WOLF, P. and KRCMAR, H., Wirtschaftlichkeit von elektronischen Bürgerservices - Ergebnisse zweier Fallstudien, in Stiftungsreihe 71, A.S. Stiftung, 2006: Stuttgart. [21] OSTERWALDER, A., The Business Model Ontology - A Proposition in a Design Science Approach, Ecole des Hautes Etudes Commerciales, Université de Lausanne, 2004. [22] YU, E., Agent-Oriented Modelling: Software versus the World. Agent-Oriented Software Engineering II: Second International Workshop, AOSE 2001, Montreal, Canada, May 29, 2001: Revised Papers and Invited Contributions, 2002. [23] PEINEL, G., MOORE OLMSTEAD, P., and ROSE, T. Enabling viable m-Government. in the IST-Africa 2006 Conference. 2006. Pretoria, South Africa. 66 DO WEB SERVICES FOSTER SPECIALIZATION? AN ANALYSIS OF WEB SERVICE DIRECTORIES Christine Legner1 Abstract Web service technologies are expected to foster the creation of networks of specialists which expose their digital services over the internet for the dynamic discovery of services by other organizations. Although the idea of a global Web service directory, which was considered a key enabler of e-commerce in the dot.com era, has failed with the shutdown of the Universal Business Registry in 2006, the vision of an open market for Web services has regained popularity lately in the context of the SOA and Web 2.0 concepts. Given these latest developments, the interesting question is whether there is empirical evidence of an emerging market for Web services. Based on a longitudinal study of Web services directories, this paper aims at analyzing the evolving offering and market structure of B2B Web services. The study suggests that commercial Web services which enable companies to out-task discrete, repetitive tasks to specialized service providers continue to be relatively scarce. However, Web services specialists emerge in specific domains, such as compliance, online validation and alerting. In addition, Web services directories are extending their scope beyond service discovery and evolve into either ‘real’ electronic marketplaces or infomediaries. 1. Introduction The increasing capabilities of information technology are widely acknowledged as causing fundamental changes in organizational and industry structures [2, 3]. Since the emergence of the Web services paradigm, many scholars have argued that the wide acceptance of open Web service standards will dramatically reduce interaction costs within and across organizations and generate greater operational flexibility [4-6]. Web services are expected to promote the unbundling of functions and activities within and across organizations and to foster the creation of networks of specialists [7, 8]. For businesses, this vision implies the dynamic discovery of services in a global electronic marketplace and an increased level of outsourcing of single tasks (also denoted as ‘outtasking’) to specialist service providers [9, 10]. Although most industry experts recognize the potential of Web services [11], the idea of a global Web service directory, which was considered a key enabler of e-commerce in the dot.com era, has failed with the shutdown of the Universal Business Registry in 2006. However, the vision of a global Web services market has regained popularity lately: First, large software vendors are re-architecting their software platforms to reflect the paradigm of a service-oriented architecture (SOA). These efforts are complemented by the establishment of service catalogs, e.g. the IBM SOA Business Catalog or SAP’s Enterprise Services 1 Institute of Research on Information Systems, European Business School, D-65375 Oestrich-Winkel. 67 Repository. Second, Web 2.0 technologies are gaining popularity. Among them are mashups, i.e. composite web applications which are built reusing content from third parties via a public API. Last but not least, a very active research community is exploring the semantic Web. They argue that it will be much easier to locate providers of particular services and establish (semi-)automated cooperation with them if semantics are explicitly added to Web service descriptions [12]. In the context of B2B networks, the interesting question is whether Web service technologies generate more specialization and lead to commercial offerings of reusable Web services. Hence, this paper investigates the market for B2B Web services supporting discrete, repetitive tasks and may be sourced from specialist service providers in order to benefit from economies of scale. A thorough review of the existing Web services directories seems to be valuable in order to extract insights into the global market for specialized Web services. Based on a longitudinal study, this paper aims at answering the following the following questions: • Is there practical evidence that Web service technologies foster specialization, thus resulting in an increased offering of B2B Web services by providers? • What is the role of Web services directories in facilitating the Web services market? This paper is organized as follows: The next section outlines the research approach and process. In order to derive the theoretical propositions that guide our analysis, section 3 reviews Web services literature and relates it to the existing body of research from IS and economic theory. Section 4 summarizes key findings of our study related to the Web services offering and the market structure. The paper concludes with a summary and an outlook on the evolving market for Web services. 2. Research Approach Our research process consisted of two stages: Fist, we reviewed the existing body of research and developed theoretical propositions on the evolving market for Web services and the increasing specialization. For this purpose, we related concepts from the more technically oriented Web services research to prior studies which have investigated the impact of information technology on organizational coordination [2, 3]. In a second step, we collected data related to Web services offerings and the market structure, which we confronted to our theoretical propositions. Since empirical data related to the Web services market and the transaction volumes is not publicly available, our study relies on data that a team of researchers has collected over the last 5 years. Since 2002, this team has been observing all major Web services registries and directories, among them the Universal Business Registry as well as a dozen commercial directories and registries (c.f. Table 1). In view of our research objectives, five Web services directories were selected for a detailed analysis of their Web service offering and the overall structure of the market. The following selection criteria were applied: (1) The Web services directories represent different levels of sophistication, i.e. from simple Web services listings to more advanced trading platforms; (2) due to their Web services offering they are expected to be the major players, and (3) all of them have survived the shakeout phase in 2006. Thus, our analysis focuses on the following directories which account for two thirds of the commercial Web services which are traded using intermediaries: • e-Sigma.com was launched in 2003 with the mission “to provide a secure and standardsbased platform for the global discovery, consumption and management of Web Servicebased business processes”. Today, e-Sigma.com operates a comprehensive Web service directory for publishing, searching and testing Web services. • RemoteMethods started in 1999 as a Web development directory. Today, the company operates a Web service directory which comprises service descriptions and pricing information as well as rating and review mechanisms. 68 • • StrikeIron, located in Raleigh, North Carolina, was founded in 2003 and operates two directories, a global Web service directory as well as a marketplace. The company offers a broad range of services including Web service hosting, monitoring and commercialization. StrikeIron has teamed up with systems integrators and content providers. X-Methods provides a flat listing of services from individuals and organizations. In addition to the browser interface, it offers programmatic interfaces to the registry. Name and Link Universal Business Registry (UBR) Inactive BindingPoint Inactive eSigma.com www.esigma.com RemoteMethods www.remote-methods.com StrikeIron www.strikeiron.com WebServiceList www.webservicelist.com WebserviceX.NET www.webservicex.net Table 1: Overview of Web services directories Operated by Status (October 2007) IBM, Microsoft, NTT Active: 2002 – 2006 Com, SAP Discontinued in January 2006 with more than 50,000 entries (‘the objective of the UDDI project was reached”) Acclaim IT Solutions Active: N/A – 2006 Ltd. Discontinued in 2006 with >4000 services [1] (‘market too slow to adopt Web services‘) eSigma Active: 2003 – today 159 Web services InfoGenius Inc. Active: 1999 – today Started as Web development directory; 337 Web services StrikeIron Active: 2002 – today 618 Web services in Global Directory; 74 Web services in StrikeIron Marketplace IT Netix, Inc. Active: N/A – today 483 Web services Generic Objects Active: N/A – today Technologies Ltd. 71 Web services In order to test our propositions, we counted and analyzed the Web services entries in the selected Web service directories. A first analysis was performed in October 2005 and provided an overview of the Web services offering and the market characteristics. The analysis was repeated and enhanced two years later. Since most directories publish Web services in multiple categories, particular attention has been given to data cleansing in this second analysis. Most importantly, we have eliminated duplicates and created a list with unique service entries for every Web service directory. These entries have been categorized according to the following dimensions: • Functional scope of the Web services: Ten categories have been defined in order to reflect the functional scope, from data-oriented to application-oriented and technical functionality. • Price model: Web services have been classified according to the price model that is applied. • Service provider: Service providers comprise specialized Web service providers, organizations offering complementary Web services to their product/service offering and individuals. • Besides the categorization of the service entries, we investigated the functions provided by the Web service directory using the taxonomy described in the next section. 3. Research Propositions 3.1. Web Services and Specialization From a technical perspective, Web services represent interfaces which provide stable, reusable software functionality [4, 15]. In order to ensure interoperability across platforms, they build on a set of standards [4, 16]: (1) the Extended Markup Language (XML) for defining messages, (2) the Simple Object Access Protocol (SOAP) for transmitting messages, (3) the Web Services Description Language (WSDL) for describing interfaces and (4) the Universal Description, Discovery and 69 Integration (UDDI) protocol for publishing metadata about Web services. Whereas the technical research stream is mostly concerned with enhancing Web services concepts architectures [4, 5, 17], the business literature focuses on the emerging Web service-based business applications and their economic potential. Many business experts argue that Web services – in combination with a service-oriented architecture – will allow companies to replace their proprietary information system landscape with an open, modular architecture [8, 18]. Hence, companies will increasingly leverage shared services, i.e. centrally managed, one-to-many services, and rely on the capabilities of third parties for managing their information system resources [6]. Whereas Web services may be used as mere integration technology, shared services rely on more coarse-grained Web services which are sufficiently generic to allow their reuse in several processes and/or by several users [17, 19]. Proposition 1: With the increasing maturity of Web services technologies, the offering of coarsegrained Web services which provide reusable business-level functionality will increase. Transaction cost theory postulates that the falling interaction costs promote the unbundling of functions and activities within and across organizations [2], and Brynjolfsson et al. [3] demonstrate that advances in IT lead to smaller firm size. In the context of Web services, it has been argued that companies encapsulate their business expertise as Web services and make it available throughout the entire value network, thus stimulating the external integration with their business partners [11]. If Web services are to dramatically reduce interaction costs and to encapsulate electronic support of non-strategic transactions [13], they are likely to increase the level of external sourcing. Sanders et al. [13] and Keen and McDonald [14] denote this particular form of outsourcing as out-tasking given that a specific task is assigned to an outside supplier. By out-tasking to external service providers, companies will benefit from scale efficiencies due to specialization [9]. Proposition 2: Due to the falling transaction costs, specialist service providers will be able to realize scale efficiencies in repetitive tasks and establish a commercial offering of B2B Web services. 3.2. The Role of Web Service Directories From the very beginning, Web services have been associated with the idea of online service discovery [4]. This is manifested by the integral role that directories storing service descriptions play in a Web services architecture [15]. Directories allow service providers to register new services and service consumers to search for and locate services. In a centralized approach, they are hosted and managed by a trusted entity. In the early days of the dot.com era, Web services registries were considered the key technology for facilitating global e-commerce. Hence, the publication of the first version of the UDDI specifications in 2000 inspired the launch of several Web services directories and registries. Since directories establish many-to-many interactions between organizations that publish Web services and organizations which consume Web services, Web services ecosystems show typical characteristics of an electronic market. Similar to a physical marketplace, an electronic market represents a social arrangement which allows buyers and sellers to carry out a voluntary exchange of goods or services. It serves three main functions, namely to match buyers and sellers, to facilitate transactions and to provide the institutional infrastructure for business [20, 21]. Proposition 3: Web service directories assume typical functions of an electronic market which facilitates voluntary exchanges of digital services between Web service publishers and consumers. Given the fact that, of the 1520 electronic marketplaces that were identified in 2000 [22], only a minority survived the subsequent shakeout phase, IS research has intensively investigated the particular role and evolution of electronic markets. Whereas early e-business research mostly emphasized their role in online matchmaking between supply and demand [23], a more differentiated view has developed over the past years (c.f. Table 2). Some authors argue that marketplaces in the B2B 70 space are evolving into so-called exchanges or e-hubs which facilitate supply chain collaboration within a vertical industry [22, 24, 25]. Other scholars observe the emergence of so-called infomediaries or cybermediaries [26-28], like Autobuytel or Expedia, which reduce information asymmetries for consumers. Since the concept of infomediation has also been applied to the B2B space with a very broad view of information-based services [29], the borderline between the different concepts is blurred. Table 2 summarizes the characteristics and roles played by online intermediaries according to prior IS research and will serve as a basis for analyzing the role of Web service directories: Based on the taxonomy developed by Barnes & Hinton [31], informational, transactional, logistical, assurance and customization functions can be distinguished. In addition, we explicitly include matching [23, 24] and additional collaboration, integration and standardization functions. Table 2 visualizes the differences between the original concept of electronic marketplaces, the more collaboration-focused B2B exchanges and the cyber- or infomediaries. Reflecting the evolution of electronic markets, it can be concluded that basic informational services, namely e-catalogs, will most likely not provide a sustainable value proposition [32]. In order to attract the critical mass of Web service consumers and publishers, it might be expected that Web services intermediaries assume additional functions related to matchmaking and facilitation of transactions. Proposition 4: Informational services, notably service discovery, will not provide a sustainable value proposition for Web service directories on the medium and long term. Table 2: Characteristics and roles played by different type of online intermediaries 4. Findings 4.1. Characteristics of Web Services Offering With 500 to 700 service entries which are provided by more than 100 service providers, XMethods and StrikeIron Global Directory offer the largest number of Web services entries Table 3). Interestingly, their attractiveness is decreasing, as they have been shrinking over the last two years. Even though eSigma.com, RemoteMethods and StrikeIron’s Marketplace are significantly smaller in terms of the number of entries, they seem to be gradually expanding their service offering and have experienced at least moderate growth lately. 71 Table 3: Overview of Web services offering e-Sigma Remote StrikeIron StrikeIron Methods Global Direct. Marketplace Number of Web services (own data collection) October 2005 N/A N/A N/A 50 (N/A) (246)* (1779)* (155)* October 2007 192 337 618 74 (259)* (344)* (1037)* (218)* Trend N/A +40% -42% +41% Number of Web services according to [1] January 2006 N/A 322 N/A 207 Web services offering (as of October 2007 / own data collection) Address, Location & 17.76% 34.88% 2.41% 11.47% Identity Verification Business & Finance 45.95% 25.87% 37.51% 56.42% Communications 10.04% 6.10% 14.08% 0.92% Consumer 6.95% 0.00% 0.39% 1.83% Government 2.70% 0.00% 1.83% 0.92% IT Services 0.00% 0.00% 17.16% 0.46% Media 2.32% 2.62% 0.00% 0.00% Miscellaneous 0.00% 9.30% 1.54% 3.21% Utilities 11.20% 7.85% 8.68% 1.83% Value & Manipulation 3.09% 13.37% 16.39% 22.94% Price model (as of October 2007 / own data collection) Chargeable WS (%) 80.7% 41.2% 17.0% 100% Functions provided by Web service directory (as of October 2007 / own data collection) Informational Service deService deService deDetailed serscription incl. scription incl. scription; vice descripquality reportquality reporttion incl. qualiing; ing; reviews, ty reporting; rating; Matching Search; Search; Basic search; Basic search; Price discovery Price discovPrice discovery; ery; Customization N/A N/A N/A N/A Transactions N/A Monitoring N/A Settlement (subscription); Monitoring; Testing Assurance N/A N/A N/A Commercial agreements Logistical N/A N/A N/A N/A Collaboration N/A N/A N/A N/A Integration RSS; UDDI N/A N/A Marketplace API; Excel integration Standardization WSDL; UDDI WSDL WSDL WSDL X-Methods 555 509 -8% 490 26.7% Short service description; N/A N/A Testing N/A N/A N/A RSS; SOAP interface; WSInspection; DISCO; UDDI WSDL; SOAP; UDDI * Depending on the realization of the directory, Web services and providers are only displayed according to predefined categories. The resulting numbers may include duplicates due to multiple categorizations. Although Web services intermediaries claim to provide business-level services, the detailed analysis reveals that many services are extremely fine granular and data-centric. Many Web services offerings still comprise simple transformation and conversion services, e.g. SMS services, the transformation of simple text files in XML format or currency converters. However, Web service providers address specific business requirements and realize small chunks of business logic for 72 specific scenarios. Among them are validation and verification services which enhance postal address, e-mail or phone information and may be useful in marketing campaigns, credit checking or death index services which can be easily integrated in ordering applications and facilitate real-time fraud detection. The growing number of services in the category ‘Address, Location & Identity Verification’ as well as ‘Business & Finance’ underpins this trend. Another emerging focus area of service offerings is regulatory compliance, with the Patriot Act compliance service, safety and product recall services as examples. In addition, services are increasingly customized as notification services that send out alerts as a reaction to specified events. Interestingly, the Web services directories which experienced growth over the last two years have a slightly higher portion of business-level services, i.e. services in the categories ‘Address, Location & Identity Verification’ and ‘Business Services’, while the other Web services directories comprise more technical or utility services. Thus, proposition 1 can only partly be confirmed. By analyzing price models and service providers, our study identifies three different business models with regard to proposition 2: • Type 1 – Web services as core competency: This business model comprises chargeable Web services provided by professional service providers. Table 3 depicts some prominent examples of these emerging service specialists which offer services in the field of address, location and identity verification as well as business services. Pricing models are either transaction-based or subscription-based (monthly or yearly). Prices range from <0.01$ per invocation (one-time purchase), to monthly and yearly fees of more than USD 10,000 (subscriptions with either limited or unlimited number of invocations). Type 1 Web services account for 35% of the total number of Web services in this study. • Type 2 – Complementary Web services: In this case, companies offer complementary Web services to their business partners. Prominent examples include logistics service providers, e.g. UPS or Fedex, which offer Web services for direct access to their online tracking systems, or e-shops, e.g. Amazon.com, which expose e-commerce functions as Web service. The services are offered free of charge and represent the smallest group in this analysis. • Type 3 – “Gadget” Web services: This type of Web service is offered free of charge mostly by individuals, often students or software developers. Type 3 Web services account for around 50% of the Web services listed in the five directories. Our analysis confirms proposition 2 given that a number of service providers specialize in the provisioning of digital services and have been able to establish a Type 1 business model. With exception of the StrikeIron Marketplace and e-Sigma, which exclusively focus on Type 1 Web services, Web service directories address all three types of business models. 4.2. Web Services Directories As of today, most Web services directories limit their scope to decreasing the search costs of buyers looking for a particular Web services offering which suits their requirements. As depicted in Table 3, they provide a service catalog with some enhanced trial functionality. However, the level of detail and the reliability of the service description varies widely. Whereas XMethods and RemoteMethods provide short descriptions and link to the service provider for detailed information, the StrikeIron Marketplace and e-Sigma.com deliver a comprehensive documentation including detailed feature lists and example data documentation. With the exception of XMethods, each directory provides one or more means to search for Web services. Despite the fact that private UDDI registries allow for advanced categorization and identification schemes, the investigated Web services intermediaries use rather simplistic search and categorization mechanisms. Searching functionality is reduced to keyword search and simple category browsing with very basic predefined 73 categories. Unlike in other electronic markets, we were not able to observe increasing personalization and customization of the Web services offerings. Most interestingly and in contrast to the paradigm of an electronic market, not all intermediaries support matching and notably price discovery. Of the ‘pure’ directories, only RemoteMethods and e-Sigma.com announce the price of a Web service. The StrikeIron Marketplace offers a harmonized subscription model for Web services from different providers, in which subscribers pay either a monthly or annual fee to gain access to and invoke Web services. This fee is based upon the number of actual invocations (from a few hundreds to several millions) the client uses. With regard to the settlement, a decentralized approach prevails and transactions are directly settled between providers and consumers. The StrikeIron Marketplace is the only directory which facilitates B2B transactions between Web service providers and consumers. It establishes the contractual agreement between buying and selling parties as well as the processing of credit card payments and the related payment monitoring and accounting with service providers. All service invocations and replies are resolved through the platform. It provides authentication and authorization against a consumer’s subscription and then forwards the request to the service provider. In addition, it offers availability monitoring and usage metering. StrikeIron additionally supports systems integration at the Web service consumer’s end by offering pre-defined authentication mechanisms and out-of-the box integration. Using the StrikeIron Marketplace API, software vendors are able to embed service invocations in their applications. As an example, the Salesforce.com administrator can call StrikeIron’s US Address Verification Service to correct and enhance customer address information. Besides browser access, some directories support the discovery of services by programmatic interfaces: XMethods provides the most advanced options with SOAP interfaces, RSS feeds, WS-Inspection, DISCO documents and a UDDI Private Registry interface. Given the brief service descriptions and the limited support for price discovery and settlement, it is questionable whether all Web service directories satisfy the requirements of B2B users and are able to facilitate the voluntary exchanges of digital services between Web service publishers and consumers. This particularly applies to XMethods where service descriptions are outdated and incomplete and many links are broken. Whereas proposition 3 only holds for the more advanced Web services directories (e-Sigma.com, StrikeIron Marketplace, RemoteMethods), our analysis confirms proposition 4: Directories with a broader portfolio of services experience growth whereas directories which only provide a service catalog are stagnating. 5. Conclusions and Outlook In this study, we investigated whether there is practical evidence that Web service technologies foster specialization, thus resulting in an increased offering of B2B Web services by specialist service providers. Despite the great enthusiasm about Web services and its revitalization in the context of Web 2.0, we found that the commercialization of B2B Web services faces a rather slow evolution. With a total amount of several 100s Web services, there is only weak empirical evidence that Web services technologies have generated significant market opportunities for Web service providers so far. Recently, we have been able to observe an increasing ‘professionalization’ with a number of commercial Web services specialists, such as Dun & Bradstreet, ServiceObjects or Xignite, that have entered the market and continue to expand. In view of this development, it might be argued that the Web services market has still not reached maturity and that a number of factors might foster market take-off in the near future. On the one hand, businesses have started implementing service-oriented architectures and are better prepared to adopt Web services today than they were in 2002. On the other hand, our study suggests that Web service providers in the area of compliance, online validation and alerting are setting up Type 1 business models. Due to the increasing availability of digital content and real-time information, more services of this type are to be expected. 74 From the growth rates of the different Web services directories we conclude that service discovery, i.e. the provisioning of a service catalog, does not provide a sustainable value proposition for Web service intermediaries. From our study, we conclude that the role of intermediaries is evolving and that the existing players have taken different evolution paths: Whereas at the one extreme XMethods provides a flat listing of Web services targeted at the large technical community and in particular the many individual software developers, e-Sigma.com, StrikeIron and RemoteMethods are focussing on business users and the commercial Web services market. RemoteMethods positions itself as ‘the source for finding reliable Web Service Providers (WSP)’, i.e. a neutral platform providing review and rating mechanisms as well as price and service transparency, and thereby evolves into a typical infomediary. e-Sigma provides a comprehensive self-service discovery and publication platform with a focus on facilitating standard-based process collaboration. It might evolve into an exchange at a later stage. StrikeIron has established a transaction-based remuneration model as so-called Web Services Marketplace and assumes the role of an electronic market. For Web service consumers, StrikeIron acts as a single point of contact, which facilitates transactions with multiple service providers and provides a reliable institutional infrastructure for conducting business. In order to develop its Web services offering and to increase its attractiveness as a sales channel, StrikeIron supports service providers with co-marketing efforts, flexible pricing mechanisms, billing and account management. Intermediaries will have a role to play in facilitating interactions with a wider spectrum of trusted service providers, as long as the market is fragmented. However, disintermediation is also a possible scenario, if the specialist Web services providers evolve into a handful of well-known ‘brands’ and establish their own online sales channels. The results from the present research cannot be interpreted without taking the study’s limitations into account. Most importantly, our empirical base has been restricted to open Web services directories and Web services that are publicly accessible. Whereas our study focuses on the Web services directories which have been established around 2002, it does not consider the emerging service catalogs which have been built by software vendors and a number of newer service registries, such ProgrammableWeb.com and Mashable.com, that introduce newer Web 2.0 styles services. It should be also noted that the focus of our study is strictly on Web services (as defined by the use of the core Web service standards). Consequently, we have not addressed the more general theme of digital services (which some authors also denote as Web services). With regard to related work, only two other empirical studies related to the Web services market exist to our knowledge: van den Heuvel and Smits [1] analyze the structure of the Web service market in comparison to software components. Bachlecher, Siorpaes, Fensel and Toma [33] review the existing approaches toward Web service discovery based on an analysis of Web services directories and Web services search engines. While focusing on the role of Web service directories, both studies do not provide any details on the commercialization of Web services and the structure of the Web service offering. In a recent publication, Nüttgens and Dirik [34] identify business models for Web services based on a multiple-case study research design. Their findings confirm the results from our study, notably the three business models outlined in section 4. 6. References [1] J.-W. van den Heuvel and M. Smits, "Transformation of the Software Component and Web Services Market", presented at eMergence, Proceedings of the 20th Bled eConference, 2007. [2] T. W. Malone, J. Yates, and R. I. Benjamin, "Electronic Markets and Electronic Hierarchies", Communications of the ACM, 30 (6), pp. 484-497, 1987. [3] E. Brynjolfsson, T. W. Malone, V. Gurbaxani, and A. Kambil, "Does Information Technology Lead to Smaller Firms?" Management Science, 40 (12), pp. 1628-1644, 1994. 75 [4] G. Alonso, F. Casati, H. Kuno, and V. Machiraju, Web Services: Concepts, Architectures and Applications. Springer, Berlin, 2003. [5] M. P. Papazoglou and D. Georgakopoulos, "Service-Oriented Computing", Communications Of The ACM, 46 (10), pp. 25-28, 2003. [6] J. Hagel III and J. S. Brown, "Your Next IT Strategy", Harvard Business Review, 79 (October), pp. 105-113, 2001. [7] J. Hagel III and M. Singer, "Unbundling the corporation", Harvard Business Review (March/April), pp. 133-141, 1999. [8] A. Ismail, S. Patil, and S. Saigal, "When computers learn to talk: A Web services primer", The McKinsey Quarterly, Special Edition: Risk and Resilience (2), pp. 70-77, 2002. [9] J. vom Brocke and M. A. Lindner, "Service Portfolio Measurement — A Framework for Evaluating the Financial Consequences of Out-tasking Decisions", presented at Proceedings of the 2nd international Conference on Service Oriented Computing, 2004. [10] H. Österle and C. Reichmayr, "Out-tasking mit WebServices", in Service Engineering - Entwicklung und Gestaltung innovativer Dienstleistungen, H.-J. Bullinger and A.-W. Scheer, Eds. Springer, Berlin, 2003, pp. 565-589. [11] E. M. Daniel and A. White, "The future of inter-organisational system linkages: findings of an international Delphi study", European Journal of Information Systems, 14 (2), pp. 188-203, 2005. [12] J. de Bruijn, D. Fensel, U. Keller, and R. Lara, "Using the Web Service Modeling Ontology to Enable Semantic E-Business", Communications of the ACM, 48 (12), pp. 43-47, 2005. [13] N. R. Sanders, A. Locke, C. B. Moore, and C. W. Autry, "A Multidimensional Framework for Understanding Outsourcing Arrangements", Journal of Supply Chain Management, 43 (4), pp. 3-15, 2007. [14] P. G. W. Keen and M. Mc Donald, The e-Process Edge: Creating Customer Value and Business Wealth in the Internet Era. McGraw-Hill, Berkeley, 2000. [15] W3C, "Web Services Architecture", W3C, last accessed 26.06.2004, http:// www.w3.org/TR72004/NOTE-wsarch-20040211/, 2004. [16] K. Umapathy and S. Purao, "A theoretical investigation of the emerging standards for web services", Information Systems Frontier, 9 (1), pp. 119-134, 2007. [17] T. Erl, Service-Oriented Architecture. Prentice Hall, New York, 2005. [18] C. Legner and R. Heutschi, "SOA Adoption in Practice - Findings from Early SOA Implementations", presented at Proceedings of the 15th European Conference on Information Systems, St. Gallen, Switzerland, 2007. [19] E. Newcomer and G. Lomow, Understanding SOA with Web Services. Addison-Wesley, Maryland, 2004. [20] J. Y. Bakos, "The Emerging Role of Electronic Marketplaces on the Internet", Communications of the ACM, 41 (8), pp. 35-42, 1998. [21] G. M. Giaglis, S. Klein, and R. M. O'Keefe, "The role of intermediaries in electronic marketplaces: developing a contingency model", Information Systems Journal, 12 (3), pp. 231-246, 2002. [22] G. S. Day, A. J. Fein, and G. Ruppensberger, "Shakeouts in Digital Markets: Lessons from B2B Exchanges", California Management Review, 45 (2), pp. 131-150, 2003. [23] J. Y. Bakos, "A Strategic Analysis of Electronic Marketplaces", MIS Quarterly, 15 (3), pp. 295-310, 1991. [24] S. Kaplan and M. Sawhney, "E-Hubs: The New B2B Marketplaces", Harvard Business Review, 78 (3), pp. 97103, 2000. [25] E. Christiaanse, "Performance Benefits Through Integration Hubs", Communication of the ACM, 48 (4), pp. 95100, 2005. [26] J.-Y. Son, S. S. Kim, and F. J. Riggins, "Consumer Adoption of Net-Enabled Infomediaries: Theoretical Explanations and Empricial Test", Journal of the Association for Information Systems, 7 (7), pp. 473-508, 2006. [27] H. K. Bhargava and V. Choudhary, "Economics of an Information Intermediary with Aggregation Benefits", Information Systems Research, 15 (1), pp. 22-36, 2004. [28] M. Sarkar, B. Butler, and C. Steinfield, "Cybermediaries in Electronic Marketspace: Toward Theory Building", Journal of Business Research, 41 (3), pp. 215-221, 1998. [29] A. Ordanini and A. Pol, "Infomediation and Competitive Advantage in B2b Digital Marketplaces", European Management Journal, 19 (3), pp. 276-285, 2001. [30] E. Christiaanse and J. Rodon, "A Multilevel Analysis of eHub Adoption and Consequences", Electronic Markets, 15 (4), pp. 355-364, 2005. [31] D. Barnes and M. Hinton, "Developing a framework to analyse the roles and relationships of online intermediaries", International Journal of Information Management, 27 (3), pp. 63-74, 2007. [32] E. M. Daniel, A. White, and J. Ward, "Exploring the role of third parties in inter-organisational web service adoption", Journal of Enterprise Information Management, 17 (5), pp. 351-360, 2004. [33] D. Bachlechner, K. Siorpaes, D. Fensel, and J. Toma, "Web Service Discovery - A Reality Check", Digital Enterprise Research Institute (DERI), Galway, Innsbruck, Seoul, Stanford 2006. [34] M. Nüttgens and I. Dirik, "Geschäftsmodelle für dienstebasierte Informationssysteme – Ein strategischer Ansatz zur Vermarktung von Webservices", Wirtschaftsinformatik, 50 (1), pp. 31-38, 2008. 76 GESCHÄFTSMODELLE FÜR ORGANISATIONSÜBERGREIFENDE BUSINESS SERVICES IM E-GOVERNMENT Isabel Mischler, Till Janner, Christoph Schroth, Beat Schmid1 Kurzfassung Die durchgängige Abwicklung elektronischer Geschäftsprozesse über Unternehmensgrenzen hinweg hat zuletzt insbesondere im privatwirtschaftlichen Sektor erhebliche Fortschritte gemacht. Die Umsetzung von E-Government Bereich konnte mit diesem schnellen Wandel bislang nicht mithalten. Für einen erfolgreichen Einsatz moderner E-Government Architekturen reicht jedoch deren blosse technische Implementierung, insbesondere in föderalistisch organisierten Staaten, nicht aus. Die Entwicklung und Bewertung von Geschäftsmodellen für diese neuartigen Plattformen ist ebenso wichtig, um Akzeptanz und weite Verbreitung sicherzustellen. In dem vorliegenden Beitrag wird daher ein Geschäftsmodellframework für organisationsübergreifende EGovernment Business Services entwickelt. Dieses wird anhand der HERA Referenzarchitektur im Kontext der Schweiz in verschiedenen Optionen instanziiert und bewertet. 1. Relevanz organisationsübergreifender Business Services in der öffentlichen Verwaltung Organisationen operieren heute vielfältig über ihre eigenen Grenzen hinweg: Serviceorientierte Architekturen erleichtern die Integration von Informationssystemen (vgl. [15]), im Web2.0 generieren Kunden für Unternehmen Ideen (vgl. [32]) und Unternehmen entwickeln Produkte zusammen mit Partnern in komplexen Innovationsnetzwerken [31]. Um dieser neuen Realität gerecht zu werden, müssen auch E-Government Lösungen organisationsübergreifend konzipiert und umgesetzt werden. In der Schweiz, wie auch in den meisten anderen europäischen Ländern, haben praktisch alle Verwaltungen durch den Einsatz von Informations- und Kommunikationstechnologie (IKT) versucht, ihre Effizienz zu steigern [8]. In dem gleichen Ausmass, wie der private Sektor durch den Einfluss neuer Technologien umgestaltet wird, unterliegen auch die öffentlichen Verwaltungen diesem Wandel und stehen vielfältigen Herausforderungen gegenüber. So stellen Becker et. al. in [1] einen Trend zu wachsender Individualisierung fest, der wiederum zu höheren Ansprüchen der verschiedenen Anspruchsgruppen an die Dienstleistungen der Verwaltungen führt. Diese erhöhten Ansprüche an eine moderne, dienstleistungsorientierte und effiziente Verwaltung, die ihre Dienste auch mit Hilfe von IKT erbringt, resultieren auch aus dem immensen technologischen Fortschritt im privatwirtschaftlichen Sektor in den vergangenen Jahren [12]. Bislang jedoch konnte der Bereich 1 University of St. Gallen, Institute for Media and Communication Management, CH-9000 St. Gallen 77 der öffentlichen Verwaltung nicht in gleichem Maße mit der technologischen Entwicklung im privatwirtschaftlichen Bereich schritthalten. Als weitere Motivation für die Modernisierung der Verwaltungen geben Becker et. al. an, dass durch den zunehmenden Standortwettbewerb (national und international) “ein effizientes und effektives staatliches Handeln sowie die Unterstützung unternehmerischer Aktivitäten in einer Region oder in einem Land durch den Staat mehr und mehr zu einem entscheidenden Standortfaktor”[1] werden. Die Gestaltung eines attraktiven Standortes mit interoperablen Systemen bedingt, dass gemeinsame Standards verwendet werden [21]. Nur wenn eine E-Government Plattform an bestehende Initiativen anknüpft, wird sichergestellt, dass vergangene und zukünftige Investitionen nicht umsonst getätigt wurden bzw. werden. Dies gilt insbesondere für die Schweiz mit ihrem hohen Grad an Dezentralisierung und der grossen Heterogenität der bereits vorhandenen Systeme. Hier setzt das HERA (Helvetic E-Government Reference Architecture, [14]) Projekt an. Ziel dieses Projektes ist es, eine generische E-Government Referenzarchitektur zu entwickeln. Diese soll helfen auf eine einfache Weise neue organisationsübergreifende E-Government Applikationen einzuführen. Die Architektur baut auf bestehenden Standards der Schweizerischen Standardisierungsgesellschaft eCH auf und basiert auf dem Konzept des zukünftigen Event-Bus Schweiz. Durch HERA soll es gelingen, sowohl die Effektivität, wie auch die Effizienz in der öffentlichen Verwaltung zu steigern. Dieser Artikel gibt einen Überblick über die relevanten Initiativen im E-Government in der Schweiz und zeigt, wie sich HERA in dieses System einpasst und auf welchen Prinzipien die Plattform basiert. Im Zentrum der Arbeit werden mögliche Geschäftsmodelle für organisationsübergreifendes E-Government aufgezeigt und am Beispiel der HERA Architektur angewendet. Dabei ergeben sich die drei Optionen "Lizenzgeschäft mit Support", "Lizenzgeschäft ohne Support" und "Software as a Service". Eine Bewertung der Geschäftsmodelle aus Sicht der beteiligten Akteure wird in der anschliessenden Diskussion anhand des Ansatzes des Total Cost of Ownership vorgenommen. Dieser Ansatz soll die Akzeptanz und die Verbreitung unternehmensübergreifender E-Government Dienstleistungen erhöhen und den beteiligten Akteuren als Entscheidungsgrundlage dienen. 2. Rahmenbedingungen – Standardisierung, Architekturinitiativen und das HERA Projekt In diesem Teil sollen zum einen die relevanten Rahmenbedingungen des E-Governments in der Schweiz aufgezeigt und zum anderen ein kurzer Überblick über das HERA Projekt gegeben werden. Die Schweizer E-Government Landschaft ist durch einige besondere Rahmenbedingungen gekennzeichnet. Dies sind zum einen die politischen/organisatorischen Rahmenbedingungen. Hier sind insbesondere der Verein eCH und die föderale Aufbauweise des Schweizerischen Staates zu nennen. Der Verein eCH [9] hat sich zum Ziel gesetzt Standardisierungen im E-Government in der Schweiz voranzutreiben [10]. Weiter sind technische Rahmenbedingungen zu beachten. In Industrie und öffentlicher Verwaltung aktuell vorherrschende technologische Grundlagen und Konzepte sind zum Beispiel serviceorientierte Architekturen (SOA) (vgl. z.B [19], [24]) und eventgetriebene Architekturen (EDA) (vgl. [7]). In Bezug auf E-Government gibt es zudem auch wichtige Initiativen, die es zu beachten gilt. Dies ist zum einen der Event-Bus Schweiz als generelles Architekturprinzip [23] und zum anderen die SEDEX-Plattform, ein Teilbus des EventBus Schweiz. Die SEDEX-Plattform vereinfacht die Kommunikation zwischen den amtlichen Personen-registern [3] und stellt erstmals eine Plattform für den organisationsübergreifenden Austausch von elektronischen Dokumenten in der Schweiz zur Verfügung. Der Event-Bus Schweiz ist als konzeptuelles übergeordnetes Rahmenwerk für die zukünftige E-Government Infrastruktur in 78 der Schweiz zu verstehen, das verschiedene entstehende Datenaustauschplattformen (Teilbusse) integriert und zu einem interoperablen Gesamtsystem vereint [23]. Den genannten relevanten Rahmenbedingungen wurde bei der Konzeption der HERA-Plattform Rechnung getragen, so dass eine nahtlose Integration in die bestehende E-Government Landschaft sichergestellt wird. Abbildung 1 zeigt die Einbettung der HERA-Plattform in die Schweizer EGovernment Landschaft. Es wird deutlich, dass der HERA-Bus als Teilbus des Event-Bus Schweiz zu verstehen ist und somit die Möglichkeit besteht, mit den angeschlossenen Teilbussen, also z.B. mit SEDEX, zu kommunizieren. Abbildung 1: Einordnung der Referenzarchitektur in den Kontext des Event-Bus Schweiz (i.A.a [29]) Das HERA Projekt hat neben Integration und Anbindung an bestehende Systeme vor allem zwei Ziele. Zum einen wird ein generisches Framework für prozessorientiertes E-Government entwickelt. Dadurch wird es zukünftigen Entwicklern möglich sein, in Anlehnung an die Referenzarchitektur kostengünstig neue Applikationen zu entwickeln. Zudem verwendet das Framework einen modellbasierten Ansatz, der erlaubt, dass die meisten Bestandteile einer neuen Applikation modellbasiert eingeführt werden können (d.h. ohne, oder nur mit geringfügigem Programmieraufwand). Zum anderen soll im Projekt eine prototypische Implementation eines E-Government Szenarios, der elektronischen Gewinnsteuer für juristische Personen in der Schweiz, vorgenommen werden, um die Praxistauglichkeit des HERA Ansatzes nachzuweisen. Die webbasierte HERA-Plattform ermöglich den Prozessbeteiligten den elektronischen Austausch von Dokumenten und führt auf Basis von flexibel kombinierbaren Interaktionspattern durch den nur schwach strukturierten Prozess, so dass eine möglichst grosse Flexibilität und Agilität gewährleistet wird. Die HERAPlattform richtet ihr Hauptaugenmerk auf die organisationsübergreifenden Prozesse, allerdings ist zukünftig auch eine Unterstützung der internen Prozesse einer Organisation denkbar. Neben dem sicheren Austausch von Dokumenten und der Integration in die künftige E-Government Landschaft der Schweiz bietet HERA, wenn erforderlich, auch fachliche Mehrwertdienste, wie z.B. Vollständigkeitsprüfung und Fristenverwaltung an. Für detailliertere und zum Teil mehr auf technische Aspekte eingehende Darstellungen der HERA Architektur wird u.a. auf [6], [28] und [29] verwiesen. 3. Ein Geschäftsmodellframework für organisationsübergreifendes EGovernment Im Folgenden soll ein Geschäftsmodell für organisationsübergreifendes E-Government beschrieben werden. Dafür sollen in einem ersten Schritt die in dieser Arbeit synonym verwendeten Begriffe 79 "Geschäftsmodell“ und „Business Model" für den weiteren Gebrauch definiert werden. Darauf aufbauend wird das Geschäftsmodellframework von Stanoevska/ Högg beschriebenen und auf die spezifische Situation im E-Government angepasst. Mahadevan definiert Business Model Begriff wie folgt: "A business model is a unique blend of three streams that are critical to the business. These include the value stream for the business partners and the buyers, the revenue stream and the logistical stream. The value stream identifies the value proposition for the buyers, sellers and the market makers and portals in an Internet context. The revenue stream is a plan for assuring revenue generation for the business. The logistical stream addresses various issues related to the design of the supply chain for the business [20]." Mahadevan legt den Schwerpunkt also auf die Verbindungen zwischen den für ein bestimmtes Geschäft wichtigen Akteuren. Knyphausen-Aufsess und Meinhardt hingegen betonen die Komponenten, die hinter einem Geschäftsmodell stehen: "Geschäftsmodelle bestehen aus drei Elementen: (1) Produkt-/Markt-Kombination, (2) Durchführung und Konfiguration von Wertschöpfungsaktivitäten und (3) Ertragsmechanik."[33] Die wesentlichen Charakteristika der vorgenannten Definitionen finden in der wohl meistgenannten Definition für Business Model von Timmers ihre Synthese: "…an architecture for the products, services and information flows, including a description of various business actors and their roles, a description of the potential benefits for the various business actors, and a description of the sources of revenues. [30]" Diese Definition bildet auch die Grundlage des im Folgenden dargestellten MCM Geschäftsmodellframeworks [16]. Das MCM Geschäftsmodellframework zeigt die generischen Komponenten der in der Literatur enthaltenen Business Models. Das Framework wurde nach einer Tiefenanalyse der bestehenden Literatur erarbeitet [16]. Eine Übersicht über die von Stanoevska/Högg verwendeten Elemente gibt Abbildung 2. Abbildung 2: MCM Geschäftsmodellframework (i.A.a. [16]) Das Geschäftsmodellframework von Stanoevska/Högg ist in erster Linie auf Unternehmen in der Privatwirtschaft ausgerichtet, durch die generische Natur seiner Komponenten jedoch auch in anderen Kontexten einsetzbar. Im Folgenden wird das Framework kurz allgemein vorgestellt (i.A.a [16]) und dabei gleichzeitig auf die spezifische Situation im e-Government Markt eingegangen. Societal environment: Diese Komponente beschreibt alle Einflüsse, die von aussen auf das Business Model einwirken. Dies können rechtliche, ethische oder auch wettbewerbliche Einflussgrössen sein [16]. Im Kontext des E-Governments in der Schweiz sind in diesem Zusammenhang vor allem die rechtlichen Aspekte zu beachten. Wie Müller schreibt, benutzt jede Behörde andere Reglemente, Gesetze und Formulare [21]. Aber auch soziale Aspekte spielen eine grosse Rolle. Johanssen und Herz schreiben, dass E-Government Lösungen in der Zukunft neben der Technik vor allem am Nutzer ausgerichtet werden sollen[18]. Features of the specific medium: Diese Komponente zeigt die verschiedenen Möglichkeiten der Transaktion und Interaktion über ein bestimmtes Medium auf [16]. Abbildung 3 gibt einen 80 Überblick über die Interaktionspartner und deren Beziehungen im organisationsübergreifenden EGovernment. Unterschieden wird einerseits zwischen internem E-Government, das die elektronischen Beziehungen der Verwaltungen untereinender umfasst (Government-toGovernment, G2G), und externem E-Government. Das externe E-Government wird wiederum in zwei Bereiche aufgeteilt und umfasst die Beziehungen der Verwaltungen zu den natürlichen Personen (dem Bürger) (Government-to-Citizen, G2C), sowie die Beziehungen der Verwaltungen zu den juristischen Personen (den Unternehmen) (Government-to-Business, G2B). Abbildung 3: Interaktionsbeziehungen im E-Government (erweiterte Darstellung i.A.a. [2]) Potential customers: Dieser Teil umfasst alle Aspekte der Zielgruppe und der Kunden sowie die erwartete Wertschöpfung [16]. Gemäss den in Abbildung 3 aufgezeigten Interaktionsbeziehungen sind mögliche Nutzer und Kunden von E-Government Business Services öffentliche Verwaltungen, natürliche und juristische Personen. Value chain: Diese Komponente umfasst die direkt involvierten Parteien in der Produktion und dem Vertrieb der angebotenen Produkte und Dienstleistungen. Auch die gegenseitige Beziehung unter den involvierten Parteien gehört zu dieser Komponente [16]. E-Government Lösungen werden entweder von externen IKT-Dienstleistern oder von der öffentlichen Verwaltung selber in deren Informatikbereichen entwickelt und betrieben. Castellano et al. schreiben, dass durch einen serviceorientierten Ansatz die ganze Wertkette in kleinere, modulare Einheiten zerlegt werden könne, wodurch die Flexibilität im gesamten Prozess gesteigert wird [4]. Features of the specific product: Dieser Teil beinhaltet das Design des Produkts und die Art, wie der Kunde das Produkt oder die Dienstleistung erlebt. Ebenfalls Teil dieser Komponente ist die Beschreibung des Nutzens und wie der Kunde eventuell dazu beitragen kann [16]. Schedler formuliert vier Kriterien, damit ein umfassendes E-Government gewährleistet werden kann. Neben dem ansprechenden, auf klare Benutzerführung ausgerichteten Design und der Integration der externen mit den internen Prozessen mit dem Intranet als Voraussetzung, gehören dazu auch zwei Kriterien, die in die Komponente "Features of the specific product" gehören. Zum einen ist dies ein breites Spektrum an angebotenen Leistungen und zum anderen dass der Kundennutzen im Vordergrund des ganzen Denkens stehen soll [27]. Financial flow: In diesem Teil wird das Ertragsmodell des Business Models beschrieben, d.h., es wird gezeigt, welche Elemente der Wertkette zum finanziellen Erfolg beitragen [16]. Die finanziellen Mittel können im organisationsübergreifenden E-Government Kontext zwischen privaten IKT-Dienstleistern und öffentlichen Verwaltungen fliessen. Weiter sind Kapitalflüsse zwischen den öffentlichen Verwaltungen und den Anwendern von E-Government Lösungen denkbar. Verschiedene Erlösmodelle für den Betrieb von service-orientiert realisierten EGovernment Lösungen werden in Kapitel 4 am Beispiel der HERA Architektur diskutiert. 81 Flow of goods and services: Diese Komponente identifiziert im Unternehmen und in der Wertkette alle Prozesse, die nötig sind, um das Produkt oder die Dienstleistung zu erstellen [16]. Schedler schreibt, dass E-Government neue Möglichkeiten schaffe, "um die Entscheidungsfindung, Leistungserstellung und die Abgabe der Leistungen an die Kundinnen und Kunden zu vereinfachen, zu optimieren" [27]. 4. Fallstudie: Geschäftsmodelloptionen für die HERA-Architektur Aufbauend auf dem Geschäftsmodellframework von Stanoevska/Högg und dessen Instanziierung für organisationsübergreifendes E-Government sind drei allgemeine Optionen für ein Business Model für Anwendungen, die auf der zuvor vorgestellten HERA Architektur aufbauen, denkbar. Im Folgenden werden die Modelle „Lizenzgeschäft mit Support“, „Lizenzgeschäft ohne Support“ und „Software as a Service“ kurz anhand der Dimensionen des E-Government Geschäftsmodellframework beschrieben. Der Schwerpunkt liegt dabei auf der Option Software as a Service. 4.1. Option 1: Software as a Service Die Geschäftsmodelloption Software as a Service (SaaS) beschreibt den Fall der Bereitstellung der kompletten Anwendungsfunktionalität, die auf Basis der HERA Infrastruktur realisiert wird, als Dienstleistung, die über das Internet bezogen werden kann [13]. Im Gegensatz zur klassischen Software wird bei SaaS die gesamte Infrastruktur von einem Provider zur Verfügung gestellt und betrieben [5]. Die Komponenten des Geschäftsmodellframework gestalten sich für diese Option wie folgt: Societal Environment: Das Umfeld für ein E-Government Geschäftsmodell ist in der Schweiz durch einige Besonderheiten geprägt. Es sind dies der föderalistische Staatsaufbau mit zum Teil sehr kleinen autonomen Verwaltungseinheiten [17], der daraus resultierende erhöhte Koordinations- und Steuerbedarf [17], das häufige Fehlen von gesetzlichen Grundlagen [22] und die vermehrte Bereitschaft von kleineren staatlichen Einheiten zur Kooperation. Wenn eine EGovernment Lösung erarbeitet wird, sind diese Besonderheiten sowie das generelle gesellschaftliche Umfeld zu beachten. Besonders dem föderalistischen Aufbau des Staatswesens mit den sehr kleinen autonomen Einheiten kann durch Software as a Service entsprochen werden, da u.a. Mehraufwände für die Installation und Betrieb von Anwendungen jeweils vor Ort entfallen. Features of the specific medium: Der webbasierte Zugriff auf die HERA-Plattform ermöglicht den elektronischen Transfer von Dokumenten zwischen den Prozessbeteiligten und führt durch den Prozess, der nur grob strukturiert ist und ein hohes Mass an Flexibilität zulässt. HERA fokussiert primär auf die organisationsübergreifenden Prozessanteile, erlaubt aber auch die Unterstützung der internen Prozesse. HERA führt Buch über den Prozessablauf, also wer wann welche Dokumente an wen geschickt hat und mit welchem Bearbeitungsauftrag. Soweit möglich überprüft HERA das elektronische Dossier auf Vollständigkeit und Konsistenz, bevor es an den nächsten Prozesspartner weitergeleitet wird. Value Chain: Der IKT-Dienstleister übernimmt sowohl die Entwicklung, wie auch den Vertrieb der HERA-Plattform. Angeboten werden die zur Verfügung gestellten Dienste bei SaaS direkt über das Internet [13]. Die Kunden erhalten die Möglichkeit sehr einfach, zeitunabhängig und direkt über das Internet die Dienste in Anspruch zu nehmen. Potential customers: Mögliche Kunden dieses Geschäftsmodells sind Gemeinden, Kantone und der Bund, also öffentliche Verwaltungen auf allen Ebenen, sowie die juristischen und natürlichen Personen, die in die jeweilige organisationsübergreifende Zusammenarbeit eingebunden sind. Features of the specific product: Da die HERA-Plattform in diesem Zusammenhang zugleich Medium und Produkt ist, kann auf den Punkt "Features of the specific medium" verwiesen werden. 82 Financial flow: Für den Betrieb der HERA-Plattform nach dem SaaS Modell sind verschiedene Erlösmodelle denkbar. Eine erste Variante ist die Ausgestaltung der Lizenzgebühren als eine periodische, fixe Rate. Alternativ zu festen Beträgen sind auch volumenbasierte Gebühren möglich. Bei der Abrechnung nach Transaktion kann entweder pro Interaktion zwischen zwei Akteuren oder pro Geschäftsvorfall abgerechnet werden. Die Abrechnung nach Interaktionen zwischen Benutzern der Plattform birgt jedoch die Gefahr, dass die Anwender die Plattform umgehen. Deshalb ist die Abrechnung nach Geschäftsvorfall (zum Beispiel pro abgewickelter Steuererklärung) innerhalb der volumenbasierten Abrechnung für die HERA-Plattform am geeignetsten. Zusätzlich zur volumenbasierten Rate kann auch ein fixer Bestandteil für den allgemeinen Betrieb sinnvoll sein. Flow of goods and services: Der HERA-Provider stellt die Plattform direkt über das Internet zur Verfügung. Er übernimmt die gesamte Entwicklung, Updates und den Service und bietet den öffentlichen Verwaltungen so eine umfassende Lösung aus einer Hand an. Wenn Updates gemacht werden, können diese lokal im Rechenzentrum des Providers eingespeist werden. Die öffentlichen Verwaltungen brauchen keine lokalen Server. Für den Provider hat dieses Modell den Vorteil, dass die volle Kontrolle bei ihm liegt, was besonders im Fall von Fehlern oder anderen Betriebsstörungen von grossem Nutzen sein kann. 4.2. Option 2: Lizenzgeschäft mit Support Bei diesem Modell wird wieder von dem HERA-Provider die allgemeine technische Plattform entwickelt. Diese Plattform und deren Dienste werden jedoch nun nicht mehr über das Internet bereitgestellt, sondern als Softwareprodukt an die öffentlichen Verwaltungen verkauft. Diese betreiben die Plattform dann auf eigener Hardware. Beweggründe könnten z.B. erhöhte Sicherheitsanforderungen in bestimmten Bereichen der öffentlichen Verwaltung sein, wenn rein interne Abläufe unterstützt werden sollen, oder wenn bereits umfangreiche Hardware für den Betrieb zur Verfügung steht, die ausgenutzt werden soll. Anfallende Kosten beinhalten sowohl Kosten für die Lizenzierung der HERA Plattform als auch Kosten für die weitere Entwicklung, Support und das Einspielen von Updates durch den HERA-Provider angeboten. Hauptvorteil dieser Lösung ist das erhöhte Vertrauen und die potentiell leichtere Erfüllbarkeit von Sicherheitsanforderungen auf Seiten der öffentlichen Verwaltung. Nachteile ergeben sich auf der Kostenseite. Da kostenpflichtige Beratungsdienstleistungen für Support und Updates sowie mögliche Weiterentwicklungen bei dem HERA-Provider in Anspruch genommen werden müssen und diese aufgrund der vielen verteilten Installationen insgesamt aufwändiger für den Provider zu bewerkstelligen sind als im Modell SaaS, können hier keine so grossen Skaleneffekte realisiert werden. 4.3. Option 3: Lizenzgeschäft ohne Support Entsprechend dem vorher beschriebenen Lizenzgeschäft mit Support, wird beim Lizenzgeschäft ohne Support die HERA-Plattform von dem HERA Provider entwickelt und als Softwareprodukt an die öffentlichen Verwaltungen für eine Lizenzgebühr verkauft. Allerdings übernehmen staatliche Informatikstellen in diesem Modell den Support selber, nachdem diese durch den HERA Provider entsprechend geschult wurden. Der HERA Provider kann weiterhin eine "Notfallhotline" für die Informatikstellen der Verwaltungen zur Verfügung stellen. Auch Updates für die Basisplattform können weiterhin vom HERA-Provider entwickelt werden. Im Fall von HERA im E-Government der Schweiz könnten z.B. grössere Kantone dieses Modell wählen, die umfangreiche Informatikabteilungen und damit entsprechendes Know-how aufgebaut haben um ihre spezifischen Anforderungen abzudecken. Es ist denkbar dieses Business Model mit dem vorher vorgestellten zu kombinieren. Das heisst, dass der HERA Provider am Anfang den Support übernehmen würde und 83 mit der Zeit, wenn die öffentliche Verwaltung mit dem Betrieb der Plattform Erfahrung sammeln konnte, diese den Betrieb selber übernimmt. 4.4. Bewertung und Vergleich der Geschäftsmodelloptionen Die vorgestellten möglichen Geschäftsmodelloptionen sollten aus zwei Perspektiven bewertet werden. Zum einen muss das Angebot einer serviceorientierten Architektur für den Anbieter gegenüber einer klassischen Anwendung Vorteile bieten. Diese Vorteile resultieren vor allem durch die modulare Aufbauweise von SOA, wodurch bei Entwicklung, Betrieb und Wartung durch die Wiederverwendbarkeit Skaleneffekte erzielt werden können [26]. Andererseits muss der Einsatz von SOA auch für die Kunden, die öffentliche Verwaltungen, lohnenswert sein. Die Vorteile ergeben sich vor allem durch Kosteneinsparungen im administrativen Bereich und durch die einfachere Anbindbarkeit an externe und bestehende Systeme. Abbildung 4 zeigt die zwei Perspektiven in der Übersicht. Abbildung 4: Übersicht der zu bewertenden Perspektiven (eigene Darstellung) Damit sich eine öffentliche Verwaltung für eines der drei vorgestellten Modelle entscheiden kann, braucht sie eine akkurate Entscheidungsgrundlage. Diese kann durch das Total Cost of Ownership (TCO) Konzept geschaffen werden. TCO ist ein Beschaffungsinstrument, das hilft, die gesamten Kosten einer Anschaffung zu berücksichtigen [11]. Ein Vorteil des TCO Ansatzes besteht darin, dass auch Nebenkosten und interne Kosten berücksichtigt werden, die bei einfachen Preisüberlegungen oft vergessen gehen [11]. Erfolgskritisch bei der Anwendung des TCO Konzeptes sind die Rechnungslegungs- und Kostendaten, welche für eine TCO Analyse bereitgestellt werden müssen [11]. Konkret geht es für die öffentliche Verwaltung darum, alle Kosten abzuwägen, die eine bestimmte Option mit sich bringt. Die Gesamtkosten können Kosten für Hard- und Software, Personalaufwand, Wartungsaufwand, Schulungsaufwand und andere Aufwände enthalten. Die Gebühren für die Plattform stehen dabei den genannten internen Kosten gegenüber, d.h. je höher die Gebühr für die Plattform, desto mehr Leistungen sind darin enthalten und desto weniger sonstige Aufwände verursacht die Plattform. Eine öffentliche Verwaltung muss also alle internen Kosten ermitteln und diese den Gebühren für die verschiedenen Optionen gegenüberstellen. Je kostenintensiver die internen Ressourcen sind, desto eher lohnt sich die Modelloption "Software as a Service". Kann aber eine öffentliche Verwaltung auf bestehenden Ressourcen aufbauen, die wenig Grenzkosten verursachen, so eignet sich möglicherweise die Option "Lizenzgeschäft ohne Support". Dies impliziert auch, dass für kleinere Kantone und Gemeinden, die nicht über die entsprechenden Ressourcen verfügen, wobei vor allem das Informatikpersonal von Bedeutung sein wird, eher "Software as a Service" eingesetzt wird. Neben dem finanziellen Aspekt, der durch eine genaue TCO Analyse abgestützt wird, spielen auch die Präferenzen und das Sicherheitsdenken der öffentlichen Verwaltung eine wichtige Rolle. So kann es sein, dass gewisse Stellen es vorziehen, wenn sie die Hardware (z.B. die Server) lokal bei sich betreiben und dabei gleichzeitig höhere Kosten in Kauf nehmen. 84 Ebenso wie für die öffentliche Verwaltung, die ihren Investitionsentscheid durch den TCO Ansatz unterstützt, sind die drei Optionen auch für den Betreiber von unterschiedlicher Rentabilität. So ist es wahrscheinlich, dass die Option "Software as a Service" durch Skaleneffekte ab einer bestimmten Anzahl Abnehmer für den Provider am wirtschaftlichsten ist. Nussdorfer und Martin schreiben, dass die Bedeutung von SaaS darin liege "dass sich Spezialisten darauf konzentrieren können, bestimmte Services mit hohem Wiederverwendungsgrad und großer Marktbedeutung zu entwickeln und anzubieten [25]". Dennoch soll der Provider nicht auf die beiden anderen Optionen im Angebot verzichten, denn staatliche Verwaltungen werden keine E-Government Lösung wählen, die ihnen nicht voll und ganz entspricht. Die Kundenzufriedenheit soll aber oberstes Gebot sein, denn die Plattform kann nur von Netzwerkeffekten profitieren, wenn möglichst viele Verwaltungen daran angebunden sind. 5. Diskussion und Ausblick Neben den technischen Fragen, muss im E-Government auch die Frage des Betriebs der Lösungen und Plattformen gestellt werden. Dazu braucht es die Entwicklung und Bewertung von Geschäftsmodellen, die aufzeigen: wer E-Government Anwendungen betreiben sollte, welches Erlösmodell dahinter steht und wer für die Weiterentwicklung und Wartung zuständig sein soll. Nur wenn technische Innovationen richtig vermarktet und betrieben werden, steigt deren Akzeptanz und Reichweite und die E-Government Landschaft kann als Ganzes davon profitieren. Hierfür wurde in diesem Beitrag ein Geschäftsmodellframework beschrieben und an den Bedingungen des E-Government in der Schweiz angepasst. Das Modell zeigt die Aspekte, die durchdacht und beschrieben werden müssen, wenn ein Unternehmen organisationsübergreifende E-Government Services anbieten will. Anhand der kurz vorgestellten HERA Plattform wurden drei Optionen für den Betrieb und die Erlösoptionen organisationsübergreifender E-Government Dienste aufgezeigt. Dabei hat sich herausgestellt, dass gerade in einem föderalistischen Land wie der Schweiz eine Vorgehensweise, unabdingbar ist, die Modularität und Dezentralität unterstützt. Das heisst, dass Plattformen flexibel und interoperabel ausgestaltet und den staatlichen Verwaltungsstellen und deren Präferenzen entsprochen werden muss. Software as a Service bietet sich an, wenn kleine öffentliche Verwaltung eine E-Government Lösung suchen, sowie die umfangreichen Sicherheitsbedürfnisse im EGovernment abgedeckt werden können. Die eher an klassische Betreibermodelle angelehnten weiteren vorgestellten Optionen Lizenzmodell mit/ ohne Support sind in diesem Kontext ebenfalls denkbar, vor allem bei grösseren Kunden der öffentlichen Verwaltung mit vorhandenen und entsprechend ausgebildeten Informatikabteilungen. Die weiteren Arbeiten im HERA Projekt umfassen neben Umsetzung und Betrieb des Prototypen der technischen Plattform auch die detaillierte Ausarbeitung von Businessplänen aus Perspektive der verschiedenen Projektpartner. Es wird interessant sein zu beobachten, inwiefern es den öffentlichen Verwaltungen gelingen wird, im Bereich elektronische Geschäftsabwicklung mit der Privatwirtschaft gleichzuziehen und welche Betreibermodelle sich am Markt durchsetzen werden. 6. Literaturangaben [1] BECKER, J.; ALGERMISSEN, L.; NIEHAVES, B., Prozessmodellierung als Grundlage des E-Government. In: Proceedings of the Wirtschaftsinformatik 2003. Medien - Märkte - Mobilität. Dresden. 2003. S. 859 - 879. [2] BRÜCHER, H., U. GISLER, M. E-Government – von den Grundlagen zur Anwendung. In: HMD Praxis der Wirtschaftsinformatik, Heft 226, August 2002, S. 5–19. [3] BUNDESAMT FÜR STATISTIK., Spezifikation der Plattform SEcure Data EXchange Sedex. Gefunden am 25. Jun. 2008 unter http://www.bfs.admin.ch/bfs/portal/de/index/news/00/00/sedex/02.html 85 [4] CASTELLANO, M., PASTORE, N., ARCIERI, F., SUMMO, V. & BELLONE DE GRECIS, G., An eGovernment Cooperative Framework for Government Agencies. In: Proceedings of the 38th Hawaii International Conference on System Sciences, 2005. [5] CHOUDHARY, V., Software as a Service: Implications for Investment in Software Development. In Proceedings of the 40th Annual Hawaii international Conference on System Sciences (HICSS), 2007 [6] COLLM A., HRISTOVA, R., JANNER, T., REIMER, U., RITSCH, R., & SCHROTH, C., HERA: A Serviceoriented Approach to Cross-organisational E-Government Processes. eGov Präsenz, 3, 2008 [7] DHEAP, V. & WARD, P.A.S., Event-driven response architecture for event-based computing. In Proceedings of the CASCON 2005, Toranto, Ontario, Canada, October 17 - 20, 2005 [8] DIDISHEIM, J.-J., Bund Kantone und Gemeinden müssen kooperieren. In: Meyer, H. (Hrsg.): Netzguide EGovernment, Basel, 2003., S.16-17 [9] eCH. eGovernment Standards. Gefunden am 4. Juli unter www.ech.ch [10] eCH., Verein eCH. Gefunden am 25. Jun. 2008 unter http://www.ech.ch [11] ELLRAM, L.M., Total Cost of Ownership. An Analysis Approach for Purchasing, International Journal of Physical Distribution & Logistics Management, 25-8, 1995 [12] FEDOROWICZ, J., GOGAN, J. L., u. WILLIAMS, C. B., The E-Government Collaboration Challenge: Lessons from Five Case Studies, IBM Center for the Business of Government, Washington, D.C., 2006. [13] HALLEK, S., SaaS-Geschäftsmodelle im Web 2.0. In Grob, L.G. & Vossen G. (Hrsg.); Entwicklungen im Web 2.0 aus technischer, ökonomischer und sozialer Sicht, Münster: Institut für Wirtschaftsinformatik, 2007, S.73-84. [14] HELVETIC E-GOVERNMENT REFERENCE ARCHITECTURE., Prozessorientiertes, organisationsübergreifendes E-Government. Gefunden am 4. Juli unter www.hera-projekt.ch [15] HEUTSCHI, R., LEGNER, C. & ÖSTERLE, H., Serviceorientierte-Architekturen: Vom Konzept zum Einsatz in der Praxis. In: Schelp, J.; Winter, R.; Ulrich, F.; Rieger, B. & Turowski, K. (Hrsg.): DW 2006 - Integration, Informationslogistik und Architektur, Lecture Notes in Informatics (LNI) - Proceedings, Volume P-90. Bonn: Köllen Verlag, 2006 [16] HOEGG, R., MARTIGNONI, R., MECKEL, M., & STANOEVSKA-SLABEVA, K., Overview of business models for Web 2.0 communities, St.Gallen, Institute for Media and Communications-Management, 2006 [17] ISB., E-Government Strategie Schweiz, Bern, Eidgenössisches Finanzdepartement, 2007. [18] JOHANSSEN, P. & HERZ, P., eGovernment 2006. Von der technikgetriebenen zur nutzergetriebenen Verwaltungsreform, Neuwied, 2005 [19] LEGNER, C. & HEUTSCHI, R., SOA Adoption in Practice - Findings from Early SOA Implementations. In: Proceedings of the 15th European Conference on Information Systems (ECIS 2007), St.Gallen [20] MAHADEVAN, B., Business Models for Internet-Based E-Commerce. An Anatomy. In: California Management Review, Bd. 42(4), S.55-69 (2000). [21] MÜLLER, W., eCH - eine Initiative zur Förderung von Standards für E-Government in der Schweiz. Gefunden am 19. Jun. 2008 unter http://www.isb.admin.ch [22] MÜLLER, W. eGovCH - Die eGovernment Architektur Schweiz, Bern, Informatikstrategieorgan Bund (ISB), 2005. [23] MÜLLER, W., Event Bus Schweiz. Konzept und Architektur. Bern, Informatikstrategieorgan Bund (ISB), 2006. [24] NEWCOMER, E. AND LOMOW, G., Understanding SOA with Web Services. Addison-Wesley, Maryland, 2004. [25] NUSSDORFER, R. & MARTIN, W., BPM - Business Process Management: Änderung des Entwicklungsparadigmas, iBonD White Paper Vol. 3, www.soa-forum.net; München, 2007 [26] OEY, K. J., Nutzen und Kosten von serviceorientierten Architekturen, Dissertation, Uni-Köln, http://kups.ub.unikoeln.de/volltexte/2007/2043/, 2006 [27] SCHEDLER, K., eGovernment und neue Servicequalität der Verwaltung? In: Gisler, M. &Spahni, D., eGovernment - Eine Standortbestimmung,Verlag Paul Haupt Bern, 2000. [28] SCHROTH, C., HERA Architecture: Enabling Seamless Cross-Organizational Collaboration for Swiss Public Administration, In: Tagungsband des Internationales Rechtsinformatik Symposion, 2008. [29] SCHROTH, C., A Reference Model for Seamless Cross-Organizational Collaboration in the Public Sector. In: Multikonferenz Wirtschaftsinformatik 2008 (M. Bichler, et. al.), Munich, Germany, S. 377-388, (2008). [30] TIMMERS, P., Business Models for electronic markets. In: Journal on Electronic Markets. Bd. 8(2), S. 3-8 (1998). [31] VOIGT, K.-I. & WETTENGL, S., Innovationskooperationen im Zeitwettbewerb. Gefunden am 19. Jun. 2008 unter http://wettengl.info/60_Veroeffentlichungen/VoWe1999.pdf [32] VON HIPPEL, E., Innovation by user communities. Learning from Open-Source Software. In: MIT Sloan Management Review. Bd. 42(4), S. 82-86 (2001). [33] ZU KNYPHAUSEN-AUFSESS, D. & MEINHARDT, Y., Revisiting Strategy: Ein Ansatz zur Systematisierung von Geschäftsmodellen. . In: Bieger, T, Bickhoff, N., Caspers, R., zu Knyphausen-Aufsess, D. & Reding, K., (Hrsg.): Zukünftige Geschäftsmodelle. Konzept und Anwendung in der Netzökonomie, Heidelberg, 2002., S.63-89 86 IS-ARCHITEKTUREN Mit der Komplexität betrieblicher Informationssysteme wachsen auch kontinuierlich die Anforderungen an die Veränderbarkeit von Geschäftsmodellen, Geschäftsprozessen und schließlich Softwaresystemen. Aktuelle Ansätze zur Gestaltung von IS-Architekturen, wie etwa die Serviceorientierung, schaffen zusätzliche Herausforderungen auf allen Architekturebenen. Der Track IS-Architekturen adressiert das gesamte Spektrum der Gestaltung und des Managements der komplexen Abhängigkeiten über alle Architektur-Ebenen hinweg: Von der Strategie und Organisation bis zur Software und IT-Infrastruktur. Leitungsgremium: Ulrich Frank, Universität Duisburg-Essen Heinrich C. Mayr, Alpen-Adria-Universität Klagenfurt Robert Winter, Universität St. Gallen (Federführender) Programmkomitee: Frederik Ahlemann, European Business School Stephan Aier, Universität St. Gallen Jörg Becker, Universität Münster Johann Eder, Alpen-Adria-Universität Klagenfurt Matthias Goeken, Frankfurt School of Finance & Management Helmut Krcmar, Technische Universität München Christine Legner, European Business School Susanne Leist, Universität Regensburg Herrmann Maier, Alpen-Adria-Universität Klagenfurt Günther Müller Luschnat, Cirquent GmbH Sven Overhage, Universität Augsburg Michael Rohloff, Universität Potsdam Joachim Schelp, Universität St. Gallen Marten Schönherr, Deutsche Telekom T-Labs Petra Schubert, Universität Koblenz-Landau Elmar Sinz, Universität Bamberg Claudia Steinberger, Alpen-Adria-Universität Klagenfurt Stefan Strecker, Universität Duisburg-Essen Oliver Thomas, Deutsches Forschungszentrum für Künstliche Intelligenz GmbH Jan vom Brocke, Hochschule Liechtenstein Jürgen Uhl, IBM Global Business MODELLGETRIEBENE ENTWICKLUNG VON SERVICEORIENTIERTEN ARCHITEKTUREN Rainer Bernhard1, Bernd U. Jahn2 Kurzfassung Die Analyse von Geschäftsprozessen gilt als wichtige Voraussetzung für die Entwicklung einer serviceorientierten Architektur. Der Übergang vom Geschäftsprozess zum Entwurf von Diensten und deren Orchestrierung in Workflows stellt auf Grund der unterschiedlichen Zielsetzungen der jeweiligen Betrachtungsebenen eine große Herausforderung dar. Um diese semantische Lücke zwischen der fachlichen und softwaretechnischen Ebene zu schließen, muss eine durchgängige Modellierung über mehrere Abstraktionsebenen hinweg durchgeführt werden. Der in diesem Artikel beschriebene modellgetriebene Ansatz, der auf dem semantischen Objektmodell beruht, soll diese Durchgängigkeit gewährleisten. 1. Einleitung Nach den technologiegetriebenen Diskussionen über serviceorientierte Architekturen (SOA) der vergangenen Jahre befassen sich immer mehr Autoren mit dem gesamten Entwicklungsprozess einer SOA ([2], [4], [16] und [17]). Die Methoden stützen sich dabei auf die Konzepte und Werkzeuge der modellgetriebenen Softwareentwicklung (Model Driven Software Development, MDSD). Durch die Unterteilung des Modellsystems in verschiedene Teilmodellsysteme trägt die MDSD zur Komplexitätsbewältigung bei und gewährleistet die durchgängige Modellierung über alle Abstraktionsebenen hinweg. Dieser Artikel stellt einen modellgetriebenen Ansatz für die durchgängige Analyse und das Design serviceorientierter Architekturen vor. Der Ansatz integriert dazu etablierte geschäfts- und objektorientierte Modellierungsansätze mit serviceorientierten Konzepten. SOA bauen auf die Erfahrungen mehrerer Jahrzehnte der Softwareentwicklung auf [9, S. 13 - 25] und stützen sich dabei auf bewährte Konzepte aus der objektorientierten Programmierung, der Komponentenorientierung, sowie der Entwicklung von verteilten Systemen. Diese Konzepte stellen einen geeigneten Ausgangspunkt für die Analyse und den Entwurf serviceorientierter Architekturen dar. Deshalb wird die objekt- und geschäftsprozessorientierte SOM-Methodik [7], die durch ihre formalen Modelleigenschaften und durch die Integration der Modelle über Sichten und Ebenen hinweg eine durchgängige Modellierung betrieblicher Systeme gewährleistet, als Grundlage für diese Arbeit verwendet. Als Notation für die Verhaltenssicht einer SOA kommt die Business Process Modeling Notation (BPMN) zum Einsatz. Die Struktursicht wird mit der Unified Modeling 1 Siemens AG Industry Sector, Lina-Ammon-Str. 9, D-90471 Nürnberg Bamberg, Feldkirchenstr. 21, D-96045 Bamberg 2 Otto-Friedrich-Universität 89 Language (UML) modelliert. Die Dienste werden als Web Services implementiert und mit der Business Process Execution Language (BPEL) orchestriert. Nach einer kurzen Einführung in die MDSD und SOM-Methodik stellt Kapitel 3 die verschiedenen Modellebenen und deren Beziehungen zueinander vor. Die Modellbildung wird in Kapitel 4 mit Hilfe eines Fallbeispiels demonstriert. Der Artikel schließt mit einem Verweis auf vergleichbare Ansätze und einer Zusammenfassung der Ergebnisse. 2. Grundlagen Ein zentrales Hilfsmittel zur Komplexitätsbewältigung bei der Softwareentwicklung stellt das Prinzip der Abstraktion und Strukturierung dar [11, S. 263]. Modelle folgen diesem Prinzip: Durch zielgerichtete Abbildung realer Sachverhalte enthalten Modelle lediglich die zur Zielerreichung notwendigen Merkmale des realen Systems. Darüber hinaus werden Modelle auch als Kommunikationsmittel zwischen Auftraggeber und Auftragnehmer, innerhalb des Entwicklungsteams oder zu Dokumentationszwecken eingesetzt. Die modellgetriebene Softwareentwicklung als spezieller Ansatz erweitert die Modellnutzung: Neben reinen Dokumentations- und Kommunikationsaufgaben werden Modelle im gesamten Entwicklungsprozess zum Generieren von Programmcode, Testen sowie für das Deployment von Anwendungssystemen eingesetzt [8, S. 1f]. Die Object Management Group (OMG) hat in diesem Zusammenhang durch die Veröffentlichung zahlreicher Standards wie der Unified Modeling Language (UML) oder der Meta Object Facility (MOF) einen großen Anteil an der Verbreitung des modellgetriebenen Entwicklungsansatzes. Seit 2001 arbeitet die OMG zudem an der Model Driven Architecture (MDA), einem Rahmenwerk, das diese Standards zu einer modellgetriebenen Entwicklungsmethodik zusammenführt. Grundlage für den in dieser Arbeit vorgestellten Ansatz ist die modellgetriebene SOM-Methodik für die Modellierung betrieblicher Systeme ([6] und [7]). Diese setzt sich aus dem objekt- und geschäftsprozessorientierten Modellierungsansatz SOM (Semantisches Objektmodell), der SOMUnternehmensarchitektur und dem SOM-Vorgehensmodell (V-Modell) zusammen. Die Unternehmensarchitektur unterscheidet drei Modellebenen (vgl. [7, S. 192f.]): Der Unternehmensplan spezifiziert die Aufgaben- und Aufgabenträgerebene (A- und AT-Ebene) des betrieblichen Systems aus der Außenperspektive. Die Modellierung stützt sich hierbei auf die Metapher einer globalen Unternehmensaufgabe. Das Geschäftsprozessmodell (GP-Modell) spezifiziert die A-Ebene des betrieblichen Systems aus Innenperspektive und beschreibt das Lösungsverfahren für die im Unternehmensplan definierte globale Unternehmensaufgabe. Die Modellbildung beruht auf der Metapher eines verteilten Systems. Das Ressourcenmodell spezifiziert die AT-Ebene des betrieblichen Systems aus Innenperspektive. Als Aufgabenträger für die Durchführung der Aufgaben stehen Personal, Anwendungssysteme (AwS) sowie Anlagen und Maschinen zur Verfügung. Als zugrunde gelegte Metapher dient der Systemtyp eines sozio-technischen Systems: Mensch und Maschine führen betriebliche Aufgaben nach dem Partner-Partner-Modell durch. Gemäß V-Modell [7, S. 195f.] werden die drei Ebenen von oben nach unten durchlaufen. In zwei Sichten werden auf jeder Ebene die Systemmerkmale Struktur und Verhalten erfasst. Innerhalb jeder Ebene müssen die Sichten aufeinander abgestimmt werden. Die Modelle der verschiedenen Ebenen müssen miteinander korrespondieren (vgl. Abbildung 1), sodass ein konsistentes Modellsystem entsteht. Ausgangspunkt der Modellierung ist der Unternehmensplan, der Diskurswelt und Umwelt voneinander abgrenzt, sowie die zugehörigen Leistungsbeziehungen definiert. Die Diskurswelt bezeichnet dabei den relevanten Ausschnitt der betrieblichen Realität. Aufgabenziele, Strategien und Rahmenbedingungen für die Umsetzung der Leistungsbeziehungen sind im Zielsystem zu definieren, welches ebenfalls Bestandteil des Unternehmensplans ist. Die Struktursicht des Geschäftsprozessmodells wird im Interaktionsschema (IAS) modelliert. Die im Unternehmensplan 90 identifizierten Diskurswelt- und Umweltobjekte stellen betriebliche Objekte im IAS dar. Transaktionen verbinden betriebliche Objekte und repräsentieren die zugehörigen Leistungsbeziehungen aus dem Unternehmensplan. Das Vorgangs-Ereignis-Schema (VES) beschreibt die korrespondierende Verhaltenssicht in Form eines ereignisgesteuerten Ablaufs von Aufgaben. Die Detaillierung des Modells erfolgt durch sukzessive Zerlegung des initialen Geschäftsprozessmodells. Anwendungssysteme repräsentieren maschinelle Aufgabenträger zur Durchführung automatisierter (Teil-) Aufgaben von Geschäftsprozessen. Die Spezifikation der AwS erfolgt mit Hilfe des konzeptuellen Objektschemas (KOS) und des Vorgangsobjektschemas (VOS). Abbildung 1: SOM-Unternehmensarchitektur und V-Modell [7, S. 193 und 195] Die fachliche Spezifikation von AwS der SOM-Methodik im KOS und VOS bildet den Ausgangspunkt für den softwaretechnischen Entwurf [6, S. 219]. Amberg [1] und Malischewski [12] haben ein mit der SOM-Methodik abgestimmtes Softwarearchitekturmodell konzipiert (vgl. linke Hälfte von Abbildung 2), das die vollständige Übernahme der Modellierungsergebnisse in den softwaretechnischen Entwurf ermöglicht: Das konzeptuelle Objektschema (KOS) besteht aus einer Menge von konzeptuellen Objekttypen (KOT), die miteinander in Beziehung stehen. Durch die Modellierung von Daten und Funktionen in Form von KOTs stellt das KOS eine objektorientierte Erweiterung der konzeptuellen Datenmodellierung dar [6, S. 212]. Das Vorgangsobjektschema (VOS) beinhaltet eine Menge von Vorgangsobjekttypen (VOT), die miteinander in Beziehung stehen, und gemeinsam die zweite Sicht der Spezifikation bilden. Ein VOT beschreibt das Lösungsverfahren für die Durchführung einer Aufgabe, die auch als Vorgang bezeichnet wird und aus einer Folge von Aktionen besteht. Automatisierbare Aktionen können durch Operatoren eines KOTs realisiert werden. Dadurch lässt sich das Lösungsverfahren einer Aufgabe als eine Abfolge von Methodenaufrufen auf KOTs spezifizieren. Damit ein betriebliches AwS auch mit Menschen (Mensch-Computer-Kommunikation, MCK) und anderen AwS (Computer-Computer-Kommunikation, CCK) interagieren kann, sind geeignete Schnittstellen zu definieren. Diese Schnittstellen werden im Interface-Objektschema (IOS) einheitlich beschrieben. Jede Schnittstelle wird als Interface-Objekttyp (IOT) spezifiziert und kann anschließend im Lösungsverfahren eines VOT verwendet werden. Einerseits kann ein Vorgang Nachrichten an IOTs senden, um die weitere Verarbeitung durch einen Menschen oder ein AwS auszulösen. Andererseits wird die Durchführung von betrieblichen Aufgaben durch eingehende Nachrichten von IOTs ausgelöst. KOS, VOS und IOS definieren die fachliche Funktionalität des AwS. Diese Funktionalität stützt sich auf eine anwendungsneutrale technische Funktionalität, die im technischen Objektschema (TOS) beschrieben wird. Das TOS stellt eine einheitliche Basismaschine für das AwS zur Verfügung und baut wiederum auf anderen Basismaschinen auf, wie z.B. Datenbanksystemen oder Klassenbibliotheken. Das TOS wird in dieser Arbeit nicht weiter betrachtet. 91 Abbildung 2: SOM-Softwarearchitekturmodell und Serviceorientierte Architektur (in Anlehnung an [12]) Zwischen dem SOM-Softwarearchitekturmodell und dem Ebenenmodell einer SOA ([2], vgl. auch [4], [10] und [14]) existieren strukturelle Ähnlichkeiten (siehe Abbildung 2): Basisdienste der Schicht 3 verwalten betriebliche Entitäten und stellen Operationen zur Manipulation dieser Entitäten zur Verfügung. Diese betrieblichen Entitäten mit ihren Attributen und Operationen finden sich auch in der SOM-Architektur als KOTs wieder. Schnittstellen zur Kommunikation mit AwS oder Menschen werden als Schnittstellen im IOS bzw. als Basisdienste spezifiziert. Objekte für die Vorgangssteuerung haben ihre Entsprechung in den Prozessdiensten einer SOA. Neben diesen strukturellen Ähnlichkeiten gewährleistet die SOM-Methodik eine durchgängige Modellierung betrieblicher Systeme. Damit bildet die SOM-Methodik eine naheliegende Grundlage für die Ableitung von Diensten und deren Orchestrierung in Form von Workflow-Schemata. 3. Modellgetriebene Entwicklung von serviceorientierten Architekturen Dieser Beitrag konzentriert sich auf die Analyse und das Design der Basis- und Prozessdienste, sowie der Schnittstellen für die Benutzerinteraktion. Sie abstrahiert also von der konkreten Implementierung der Dienste, sowie der technischen Infrastruktur, wie dem Enterprise Service Bus. Kern der Arbeit ist ein Architekturmodell, bestehend aus verschiedenen Abstraktionsebenen und Sichten, die durch Beziehungsmetamodelle miteinander verbunden sind. Grundlage des Architekturmodells bildet die SOM-Unternehmensarchitektur und das korrespondierende Softwarearchitekturmodell von Amberg und Malischewski. Das GP-Modell beschreibt die Aufgabenebene des betrieblichen Systems. Die betrieblichen Aufgaben werden im verhaltensorientierten VES und im strukturorientierten IAS spezifiziert. Serviceorientierte AwS – als Aufgabenträger für die Durchführung der betrieblichen Aufgaben – wird im KOS, IOS und VOS erfasst. Die zwei strukturorientierten Sichten für die Modellierung von Entitäten (KOS) und für die Schnittstellen zur Kommunikation mit Mensch und Maschine (IOS) werden in UML-Notation modelliert. Durch Stereotypen oder Profile kann die Notation für die Spezifikation von Diensten ertüchtigt werden. Im KOS lassen sich dadurch die Basisdienste für den Zugriff auf Entitäten (EntitätenDienste) spezifizieren. Im IOS können Dienste für die Benutzerinteraktion und für die Kommunikation mit anderen AwS (Schnittstellen-Dienste) erfasst werden. BPMN-Workflows, deren einzelne Aktivitäten aus den im IOS und KOS definierten Entitäten- und Schnittstellen-Diensten bestehen, spezifizieren die Ablaufsicht der Vorgänge (VOS). Durch die klare Trennung zwischen Aufgabenund Aufgabenträgerebene berücksichtigt das Architekturmodell insbesondere die Unterschiede zwischen einem Geschäftsprozess und dessen Automatisierung durch Workflows [vgl. 15]. Ein mit dem Architekturmodell abgestimmtes Vorgehen leitet den Modellierer durch die verschiedenen Ebenen und Sichten des Entwicklungsprozesses. Für die Modellierung komplexer realer Problemstellungen wird der Modellierer zudem durch ein geeignetes Entwicklungswerkzeug unterstützt. Dieses Kapitel beschreibt die einzelnen Ebenen und den Entwicklungsprozess über die Ebenen hinweg (vgl. Abbildung 3). 92 Abbildung 3: Modellarchitektur Ebene 1 – Unternehmensplan: Der SOM-Unternehmensplan ist Teil der Anforderungsanalyse und bildet die oberste Ebene der Modellarchitektur. Auf dieser Ebene wird die globale Unternehmensaufgabe durch das Objekt- und Zielsystem verbal beschrieben. Ebene 2 – Geschäftsprozess-Modell: Mit dem GP-Modell beginnt die Spezifikation der Innenperspektive des betrieblichen Systems. Als Fortsetzung der Anforderungsanalyse wird das Lösungsverfahren für die globale Unternehmensaufgabe im IAS und VES beschrieben. Das initiale GP-Modell wird anschließend gemäß den Zerlegungsregeln für Objekte und Transaktionen [6, S. 196] sukzessive zerlegt. Ebene 3 – Fachliche Spezifikation der Aufgabenträger aus Außensicht: Ausgehend vom GPModell, beginnt die fachliche Spezifikation der (teil-)automatisierbaren AT im VOS, KOS und IOS. In der Außensicht werden das Aufgabenobjekt, die Ziele und die Ereignisse für die Durchführung der einzelnen betrieblichen Aufgaben festgelegt. Dabei abstrahiert der Modellierer auf dieser Ebene von technischen Aspekten und konzentriert sich auf die fachlichen Anforderungen an die zu entwickelnde SOA. Aus der Verhaltenssicht des GP-Modells wird der BPMN-Workflow abgeleitet, der den Ablauf zwischen den Vorgängen definiert Gleichzeitig können aus der Struktur- und Verhaltenssicht des GP-Modells die initialen, fachlichen Entitäten abgeleitet und in einem UMLKlassendiagramm spezifiziert werden. Mehrere Entitäten werden anschließend zu Entitäts-Diensten zusammengefasst. Neben Entitäten können sich bereits aus dem BPMN-Workflow heraus weitere Dienste der SOA ergeben. Jedem Vorgang, der an einer nicht-automatisierbaren Transaktion beteiligt ist, muss eine Schnittstelle für die Mensch-Computer-Kommunikation zur Verfügung gestellt werden. Hingegen sind Anforderungen an Schnittstellen für die Computer-Computer-Kommunikation (z. B. Adapter) auf der fachlichen Ebene noch nicht zu berücksichtigen, da sie sich erst aus den einzusetzenden Technologien ergeben. Ebene 4 – Fachliche Spezifikation der Aufgabenträger aus Innensicht: Die identifizierten Vorgänge der Ebene 3 werden auf Ebene 4 aus der Innensicht betrachtet. Das Lösungsverfahren eines Vorgangs besteht aus einer Navigation über Entitäten-Diensten und Diensten für die Benutzer- und Systeminteraktion (Schnittstellen-Dienste). Durch Betrachtung der Innensicht eines Vorgangs werden neue Anforderungen an Entitäten- und Schnittstellen-Dienste aufgedeckt. Ergebnis der Ebene sind somit BPMN-Workflows für jeden Vorgang sowie detaillierte UML-Klassendiagramme für die Entitäten- und Schnittstellen-Dienste. Ein- und ausgehende Transaktionen aus der Außensicht 93 eines Vorgangs bilden die Start- und End-Ereignisse des BPMN-Workflows aus der Innensicht. Initial enthält das Modell darüber hinaus lediglich Aktivitäten, die Nachrichten von anderen Vorgängen empfangen oder an diese senden. Diese eingehenden und ausgehenden Nachrichten bilden somit den Kontext, in dem der Modellierer das Lösungsverfahren spezifizieren kann. Der abgeleitete BPMN-Workflow wird anschließend derart überarbeitet, dass ein lückenloser Kontrollfluss zwischen den einzelnen Aktivitäten entsteht. Dabei werden neue identifizierte Aktivitäten in Form von Diensten (Schnittstellen oder Entitäts-Dienste) im KOS und IOS ergänzt. Ebene 5 – Softwaretechnische Spezifikation der Aufgabenträger aus Außensicht: Die Umsetzung der fachlichen Anforderungen durch eine serviceorientierte Architektur beginnt auf Ebene 5. Für den Entwurf werden die Modellierungsergebnisse der Ebene 3 um softwaretechnische Aspekte erweitert. Die betrieblichen Objekte sind unabhängig voneinander und kooperieren im Hinblick auf gemeinsame Zielerreichung [6, S. 187f]. Für die Kooperation betrieblicher Objekte und deren Vorgänge legt der softwaretechnische Entwurf aus Außensicht das Protokoll für den Nachrichtenaustausch fest. Das Protokoll ist für die beteiligten Objekte bindend und ermöglicht dadurch eine dezentrale Koordination. Diese Form nichthierarchischer Steuerung wird auch als Choreographie bezeichnet. Zunächst werden die Dienste des IOS und KOS typisiert. Anschließend müssen die Implementierungsartefakte (siehe Ebene 7 zur Generierung der XSD und WSDL-Dateien) der Dienste generiert werden, so dass diese bei der Überarbeitung des BPMN-Workflows verwendet werden können. Den einzelnen Vorgängen des BPMN-Workflow werden die generierten Schnittstellenbeschreibungen zugeordnet, so dass die Nachrichtenbeziehungen zwischen den Vorgängen eindeutig festgelegt sind. Alle nichtautomatisierbaren Vorgänge müssen in diesem Schritt aus dem Workflow entfernt werden. Für diese Transaktionen übernehmen Dienste für die Mensch-ComputerInteraktion den Austausch der Nachrichten. Auch automatisierbare Transaktionen, die nicht als Web-Service implementiert werden, müssen durch Adapterdienste ersetzt werden, die die Anbindung anderer Systeme ermöglichen. Da sich aus der Überarbeitung des BPMN-Workflows wiederum Anforderungen an die Entitäten- und Schnittstellendienste ergeben können, sind die Ebenen 5 bis 7 in einem iterativen Entwicklungsprozess zu durchlaufen. Ebene 6 – Softwaretechnische Spezifikation der Aufgabenträger aus Innensicht: Das fachliche Modell der Innensicht (Ebene 4) bildet die Grundlage für diese Ebene. Zunächst werden die Nachrichten, die in der softwaretechnischen Außensicht bereits typisiert wurden, in den BPMN-Workflow aus Ebene 4 integriert. Der Modellierer kann nun mit der Typisierung und Erweiterung des fachlichen Modells fortfahren, so dass eine geeignete Basis für die Generierung von BPEL-Workflows möglich ist. So müssen z. B. PartnerLinkTypes und PartnerLinks definiert, Web-ServiceOperationen den Aktivitäten zugeordnet, Kompensationsaktivitäten erstellt und alternative Kontrollflüsse für die Ausnahmebehandlung spezifiziert werden. Ebene 7 – Implementierung: Die Datenbasis der serviceorientierten Architektur leitet sich aus dem KOS ab und wird durch ein XML-Schema definiert. Web-Services beschreiben die Entitäten- und Schnittstellen-Dienste. Aus der Ablaufsicht können BPEL-Workflows generiert werden. Zunächst wird aus dem BPMN-Workflow der softwaretechnischen Außensicht die Schnittstellenbeschreibung des BPEL-Workflows gewonnen. Dadurch verbirgt sich in den einzelnen BPEL-Workflows implizit die in der softwaretechnischen Außensicht definierte Choreographie zwischen den betrieblichen Objekten. Explizit kann die Choreographie aber auch durch geeignete Standards, wie z. B. der Web-Service Choreography Description Language (WSCDL), erfasst werden. Aus der softwaretechnischen Innensicht kann schließlich der eigentliche BPEL-Prozess generiert werden, der die Schnittstellenbeschreibung implementiert. Das abgeleitete XML-Schema, die Web-Service Beschreibungen und BPEL-Workflows sind das Ergebnis der Modellbildung. Aufbauend auf diesen 94 Artefakten muss die Implementierung der Web-Services durch Komponenten erfolgen. Entwurf und Realisierung dieser Komponenten sind jedoch nicht Bestandteile dieser Arbeit. 4. Erläuterndes Beispiel Mit Hilfe eines erläuternden Beispiels soll die Modellbildung über alle Ebenen und Sichten hinweg demonstriert werden. Grundlage ist ein produzierendes Unternehmen, wie z. B. die Siemens AG, das Waren von seinen Lieferanten bezieht, Produkte fertigt und diese an Kunden distribuiert. In diesem Kapitel soll der vereinfachte Geschäftsprozess Warenbereitstellung (siehe Abbildung 4) durch eine serviceorientierte Architektur automatisiert werden. Ebene 1: Die Diskurswelt umfasst den Aufgabenbereich Warenbereitstellung eines Produktionsunternehmens. Dabei sind bei Lieferanten Waren zu beziehen, zu lagern und für die weitere Verarbeitung bereitzustellen. Sachziel der Beschaffung ist die Bereitstellung der Waren, als Formalziel wird die Kostenminimierung durch optimierte Lager- und Beschaffungskosten verfolgt. Ebene 2: Der Geschäftsprozess Warenbereitstellung besteht aus den betrieblichen Objekten Einkauf, Lager und Lieferant. Die Koordination der betrieblichen Objekte erfolgt über die Transaktionen Bestellung, Annahmeanweisung, Warenlieferung und Annahmemeldung, deren zeitlicher Ablauf im VES spezifiziert wird. Ebene 3: Die Verhaltenssicht lässt sich direkt in einen BPMN-Workflow übertragen. Der Eingang einer Bestellanforderung löst den Workflow aus. Parallel zur Ablaufsicht wurde das initiale KOS abgeleitet und überarbeitet. Die Abbildung zeigt einen Ausschnitt des KOS, bestehend aus verschiedenen Entitäten, die zu den Diensten Lieferantenverwaltung, Produktverwaltung und Beschaffungsverwaltung zusammengefasst wurden. Da der Wareneingang in diesem Beispiel eine nichtautomatisierbare Transaktion ist, wurde ein entsprechender Schnittstellendienst für die Erfassung der Waren durch den Menschen spezifiziert (MCK_Lieferschein_Eingabe). Ebene 4: Nachdem die Außensicht die Nachrichten- und Ereignisbeziehungen zwischen den betrieblichen Aufgaben festlegt, wird in der Innensicht das Lösungsverfahren der einzelnen Vorgänge als eigenständiges Ablaufdiagramm modelliert. Start- (Eingang der Bestellanforderung) und Endereignis (Auslösen der Annahmeanweisung) des Vorgangs sende Bestellung (Bestellung>) sowie die gleichnamige Aktivität ergeben sich direkt aus den Beziehungen des Vorgangs. Darüber hinaus wurde der Workflow um weitere Aktivitäten ergänzt, die auf die Operatoren des Entitäten-Dienstes Beschaffungsverwaltung zurückgreifen. Ebene 5: Ausgangspunkt der softwaretechnischen Spezifikation bildet die Detaillierung des KOS und IOS. Erst die strenge Typisierung der Attribute und Parameter ermöglicht die Generierung des XML-Schemas und der zugehörigen Web-Services. Das fachliche VOS aus Außensicht wird als initiales Modell übernommen und anschließend derart überarbeitet, dass es sich als Ableitungsbasis für die Choreographie der beteiligten Vorgänge eignet. Da es sich im Wesentlichen um Typisierungen von Variablen sowie die Zuweisung von Operatoren handelt, sind diese Änderungen in der Abbildung nicht sichtbar. Nach der Überarbeitung enthält es ausschließlich Nachrichtenflüsse, die mit Hilfe von Web-Services ausgetauscht werden. Da die Bestellung an den Lieferanten per EDI übertragen wird, ist ein Schnittstellendienst für die Kommunikation mit einem externen AwS notwendig (CCK_Sende_Bestellung). 95 Abbildung 4: Geschäftsprozess Warenbereitstellung Ebene 6: Das initiale Modell dieser Ebene basiert auf der fachlichen Spezifikation der Innensicht, deren Nachrichten- und Ereignisbeziehungen um die softwaretechnischen Details der Ebene 5 erweitert wurden. Darüber hinaus beinhaltet das Diagramm einen alternativen Kontrollfluss für die Ausnahmebehandlung beim Erstellen einer Bestellung. Um einen derartigen Fehler behandeln zu können, wurde ein neuer Schnittstellendienst für die Kommunikation mit dem Einkäufer modelliert (MCK_Fehlermeldung). 96 Ebene 7: Die Abbildung zeigt eine Übersicht der aus den Ebenen 5 und 6 generierten Artefakte der SOA. Auf Basis der Schnittstellendefinitionen kann mit dem Entwurf und der Implementierung der Komponenten fortgefahren werden. 5. Zusammenfassung und verwandte Arbeiten Die Konstruktion von serviceorientierten Architekturen beginnt mit der Analyse und Modellierung der Geschäftsprozesse eines betrieblichen Systems. Die Überführung der Geschäftsprozessmodelle in technische Workflows und zugehörige Basisdienste ist jedoch auf Grund unterschiedlicher Zielsetzungen der Modelle nicht einfach. Durch Zerlegung des Modellsystems in mehrere Abstraktionsebenen kann die semantische Lücke zwischen Aufgaben- und Aufgabenträgerebene in kleinen Schritten überwunden werden. In dieser Arbeit wurde deshalb ein modellgetriebener Ansatz vorgestellt, der den Entwurf einer SOA in sieben Teilmodellsysteme gliedert und die Übergänge zwischen den Ebenen durch Beziehungsmetamodelle definiert. Die Beziehungsmetamodelle bestehen aus eindeutigen Ableitungsregeln [4, S. 57ff], die eine automatisierte Transformation zwischen den Ebenen erlauben. Die Regeln gewährleisten auch die Konsistenz zwischen den Modellebenen, sodass der Modellierer sich auf die Überarbeitung und Detaillierung der abgeleiteten Modelle konzentrieren kann. Die automatisierbare Transformation sowie weitere Automatisierungspotentiale wurden mittels eines vertikalen Prototyps untersucht. Dieser stützt sich auf MDA-Standards für die Definition der Metamodelle und die Modell-zu-Modell-Transformationen3. Der Prototyp wurde für das in dieser Arbeit vorgestellte Fallbeispiel eingesetzt, sodass eine vollautomatisierte Transformation der Modelle und die Generierung der Artefakte möglich waren. Einen dieser Arbeit sehr verwandten Ansatz haben Thomas et al. [16] vorgeschlagen, deren Architekturmodell die Gestaltungs-, die Konfigurations- und die Ausführungsebene unterscheidet: Ausgehend von der Systemabgrenzung und Geschäftsprozessmodellierung (Gestaltungsebene) erfolgt die fachliche und softwaretechnische Konfiguration auf den Ebenen 3 bis 6 (Konfigurationsebene) und schließlich die Spezifikation der ausführbaren BPEL-Workflows auf Ebene 7 (Ausführungsebene). Einen wesentlich umfangreicheren Entwicklungsprozess hat IBM aufbauend auf dem Rational Unified Process definiert [17]. Obwohl sich diese Methode über alle Phasen der Softwareentwicklung erstreckt, liegen ihre Schwerpunkte in der Entwurfs- und Implementierungsphase. Durch die strukturierte Vorgehensweise über mehrere Ebenen und Sichten hinweg, systematisiert der in dieser Arbeit vorgestellte Ansatz diese frühen Phasen und kann als Ausgangsbasis für einen derartigen Entwicklungsprozess verwendet werden. Ein weiterer Ansatz für den Entwurf von serviceorientierten Architekturen basiert auf der von Scheer konzipierten Architektur integrierter Informationssysteme (ARIS) [13]. Aus den mit der ARIS-Methode analysierten Geschäftsprozessen werden die Anforderungen an die technische Infrastruktur abgeleitet und anschließend in 10 Schritten in eine SOA umgesetzt [9]. Die von IDS Scheer entwickelte Methode konzentriert sich wie dieser Artikel auf die frühen Phasen des Entwicklungsprozesses und basiert ebenfalls auf einem geschäftsprozessorientierten Ansatz. Im Gegensatz zu dem in dieser Arbeit und dem von Thomas et al. vorgeschlagenen Architekturmodell erfolgt die Konfiguration der SOA aber direkt in den EPKs. Eine klare Trennung zwischen Geschäftsprozessebene und Workflow-Ebene bzw. zwischen fachlichen und technischen Anforderungen ist dabei nicht gewährleistet. Der hier vorgestellte Ansatz integriert verschiedene Modellierungsansätze und Standards in einem Architekturmodell für die modellgetriebene Entwicklung einer SOA. Das Architekturmodell ist offen gestaltet, so dass sich in zusätzlichen Sichten weitere Aspekte einer SOA erfassen lassen. Mit Hilfe von Patterns könnte darüber hinaus heuristisches Entwurfswissen integriert werden. Denn letztlich können Modelle, Methoden und Vorgehensweisen nur einen Beitrag zur durchgängigen 3 Der Prototyp wurde mit Hilfe des Eclipse Modeling Frameworks (EMF) und der Atlas Trasformation Language (ATL) implementiert. Siehe [4, S. 74ff] für eine Vorstellung des Prototypen. 97 Entwicklung einer SOA leisten und den Modellierer bei der Komplexitätsbewältigung unterstützen. Die Qualität des zu konstruierenden Systems hängt immer noch in entscheidendem Maße von der Erfahrung und dem Wissen der beteiligten Entwickler ab. 6. Literaturangaben [1] AMBERG, M., Konzeption eines Software-Architekturmodells für die objektorientierte Entwicklung betrieblicher Anwendungssysteme, Dissertation an der Otto-Friedrich-Universität Bamberg, 1993. [2] ARSANJANI, A., Serviceoriented modeling and architecture - How to identify, specify, and realize services for your SOA. In: IBM Developerworks, http://www.ibm.com/developerworks/library/ws-soa-design1 (Letzter Aufruf: 2008-11-14), 2004. [3] ARSANJANI, A., ZHANG, L.-J., ELLIS, M., ALLAM, A. und CHANNABASAVAIAH, K., Design an SOA solution using a reference architecture In: IBM Developerworks, http://www-128.ibm.com/developerworks/library/ararchtemp/index.html (Letzter Aufruf: 2008-11-14), 2007. [4] BERNHARD, R., Modellgetriebene Entwicklung von service-orientierten Architekturen auf Basis der SOMMethodik, Diplomarbeit an der Otto-Friedrich-Universität Bamberg, 2008. [5] ERL, T., Serviceoriented architecture : concepts, technology, and design, Prentice Hall, München 2005. [6] FERSTL, O. K. und SINZ, E. J., Objektmodellierung betrieblicher Informationssysteme im Semantischen Objektmodell (SOM). In: WIRTSCHAFTSINFORMATIK 32(6), S. 566-581, 1990. [7] FERSTL, O. K. und SINZ, E. J., Grundlagen der Wirtschaftsinformatik, 6. Auflage, Oldenbourg, München 2008. [8] FRANCE, R. und RUMPE, B., Model-driven Development of Complex Software: A Research Roadmap. In: FOSE '07: 2007 Future of Software Engineering, S. 37 – 54, IEEE Computer Society, Washington, DC, USA, 2007. [9] KLÜCKMANN, J., In 10 Schritten zur Business-Driven SOA, http://www.idsscheer.com/set/82/ARIS_Expert_Paper_-_10_Steps_to_SOA_Klueckmann_2007-03_en.pdf (Letzter Aufruf: 2008-1114), 2007. [10] KRAFZIG, D., BANKE, K. und SLAMA, D., Enterprise SOA : serviceoriented architecture best practices, Prentice Hall, NJ 2005. [11] KURBEL, K., STRUNZ, H., Handbuch der Wirtschaftsinformatik, Poeschel, Stuttgart, 1990. [12] MALISCHEWSKI, C., Generierung von Spezifikationen betrieblicher Anwendungssysteme auf der Basis von Geschäftsprozeßmodellen, Shaker, Aachen 1997. [13] SCHEER, A.-W., Architektur integrierter Informationssysteme - Grundlage der Unternehmensmodellierung, Springer, Berlin 1992. [14] SIEDERSLEBEN, J., SOA revisited: Komponentenorientierung bei Systemlandschaften. In: WIRTSCHAFTSINFORMATIK Sonderheft 2007, S. 110-117, 2007. [15] SINZ, E. J., SOA und die bewährten methodischen Grundlagen der Entwicklung betrieblicher IT-Systeme. In: WIRTSCHAFTSINFORMATIK 50(1), S. 70-72, 2008. [16] THOMAS, O., LEYKING, K., DREIFUS, F., FELLMANN, M., Serviceorientierte Architekturen: Gestaltung, Konfiguration und Ausführung von Geschäftsprozessen. In: Loos, P. (Hrsg.): Veröffentlichungen des Instituts für Wirtschaftsinformatik, Nr. 189, Saarbrücken : Universität des Saarlandes, 2007. [17] WAHLI, U., ACKERMAN, L., DI BARI, A. und HODGKINSON, G., Building SOA Solutions Using the Rational SDP, IBM Redbooks Publication, IBM International Technical Support Organization 2007. 98 EMPIRISCHE VALIDIERUNG VON INTEGRATIONSTYPEN AM BEISPIEL UNTERNEHMENSÜBERGREIFENDER INTEGRATION Stephan Aier, Bettina Gleichauf, Christian Riege, Jan Saat1 Kurzfassung Integration ist eines der vielschichtigsten Themen der Wirtschaftsinformatik. Es adressiert so unterschiedliche Herausforderungen wie die Geschäftsprozessintegration, die Integration von Applikationen oder die gegenseitige Ausrichtung von fachlichen und informationstechnischen Strukturen. Für eine adäquate methodische Unterstützung von Integrationsprojekten müssen diese Projekte geeignet kategorisiert werden. Aufgrund der Vielschichtigkeit möglicher Projektkategorisierungen erscheint es sinnvoll, fundamentale Integrationstypen zu definieren und methodisch zu unterstützen. In diesem Beitrag wird eine vorgeschlagene metamodellbasierte Taxonomie fundamentaler Integrationstypen empirisch überprüft. 1. Einleitung Integration wird oft als das Ur- und Hauptthema der Wirtschaftsinformatik angesehen [23, 29]. Mergers & Acquisitions [15], Enterprise Application Integration (EAI) [13], Datenintegration [10], unternehmensübergreifende B2B-Prozessintegration [3] oder die Integration von fachlichen Strukturen und deren informationstechnische Unterstützung im Rahmen des Business/IT Alignment [19] sind nur einige Beispiele für die sehr unterschiedlichen Erscheinungsformen von Integrationsprojekten. In einer phänomenologischen Betrachtung lassen sich daraus beispielsweise Integrationsdimensionen wie Integrationsform (verschmelzende vs. verknüpfende Integration), Integrationsreichweite (bereichsweite, unternehmensweite vs. unternehmensübergreifende Integration), Integrationsobjekt (Daten-, Funktions- vs. Prozessintegration) oder Integrationsrichtung (vertikale vs. horizontale Integration) unterscheiden [11, 21]. Eine solche phänomenologische Betrachtung bleibt jedoch immer unvollständig und eignet sich darum nur unzureichend, eine handhabbare Anzahl fundamentaler Integrationstypen zu definieren und sie methodisch zu unterstützen. Die Identifikation von abgrenzbaren Integrationstypen ist jedoch von Bedeutung, da es auf Grund der Heterogenität von Integrationsprojekten keine „one-size-fits-all“-Methode gibt, sondern im Sinne des Situational Method Engineering [2, 9, 16, 28] jeweils geeigneter situativer Methoden bedarf. Die fundamentalen Integrationstypen können die Basis für Methodenfragmente bilden, aus welchen situative Methoden erstellt werden können. Winter [31] hat darum vorgeschlagen, Integrationstypen nicht phänomenologisch, sondern auf Basis abstrakter Zusammenhänge in Unternehmensarchitektur-Metamodellen zu definieren. Ziel dieses Beitrags ist es, anhand verschiedener Integrationsauf1 Universität St. Gallen, Müller-Friedberg-Strasse 8, CH-9000 St. Gallen 99 gaben die vorgeschlagenen Integrationstypen am Beispiel der unternehmensübergreifenden Integration empirisch zu überprüfen. Im Folgenden werden dazu bestehende Arbeiten im Bereich Integration analysiert, um daraus die hier adressierte Forschungslücke abzuleiten und die von Winter vorgeschlagenen Integrationstypen vorzustellen (Abschnitt 2). Anschließend werden in Abschnitt 3 das Vorgehen sowie die Befunde der empirischen Untersuchung vorgestellt. Abschnitt 4 diskutiert die Ergebnisse der Untersuchung sowie die sich daraus ergebenden Implikationen. In Abschnitt 5 erfolgen eine Zusammenfassung sowie der Ausblick auf den weiteren Forschungsbedarf. 2. Theoretische Grundlagen In diesem Abschnitt wird ein Überblick über das vielschichtige Verständnis von Integration in der Wirtschaftsinformatik gegeben. Dabei werden insbesondere die in der Literatur vorgeschlagenen Merkmale zur Strukturierung von Integrationsaufgaben vorgestellt. Anschließend wird eine metamodellbasierte Perspektive zur Bildung von Integrationstypen diskutiert. 2.1. Merkmalsbasierte Differenzierung von Integration Einige Autoren diskutieren unter Integration primär Konstruktionsaufgaben, die inner- oder überbetriebliche Geschäftsprozesse durch Kopplungsmechanismen der Anwendungssysteme der beteiligten Unternehmen unterstützen [13, 18, 24]. Hierbei steht die Verbindung von Applikationen mittels Kopplungsmechanismen, insbesondere verschiedener Arten von Enterprise Application Integration (EAI)-Mechanismen und Middleware, im Fokus. Auch erwähnt werden Integrationsaufgaben in anderen Bereichen wie z. B. der Geschäftsprozessgestaltung [3, 25]. In der Organisationslehre wird in diesem Zusammenhang die Aufgaben- und Prozessintegration diskutiert, d. h. die Zusammenfassung getrennter Arbeitsschritte, so dass Verantwortlichkeiten dediziert gestaltet werden können [5]. Im Zusammenhang mit der strategischen Ausrichtung einer Unternehmung wird der Integrationsbegriff im Kontext mit der überbetrieblichen, elektronischen Kooperation als Enabler für neue Geschäftsmodelle verwendet [12, 22]. Rosemann [23] unterscheidet als Aufgaben der Integration Verbinden und Vereinen. Wie diese Aufgaben weiter strukturiert werden können, wird in der Literatur primär merkmalsbasiert analysiert. Integrationsmerkmale können nach Linß und Mertens in Integrationsgegenstand (Daten, Funktionen, Programme, Prozesse, Methoden), Integrationsrichtung (vertikal, horizontal) und Integrationsreichweite (innerbetrieblich, zwischenbetrieblich) unterschieden werden [17, 21]. Mertens [21] führt weiterhin den Automationsgrad (Vollautomation, Teilautomation) an. Jung beschreibt darüber hinaus weitere Integrationsmerkmale, wie etwa den Transaktionstyp (lesend, lesend und schreibend etc.) oder die Materialisierung (virtuell, materiell) [11]. Zur Strukturierung der Integrationsaufgaben existieren verschiedene Ordnungshilfen zu oben beschriebenen Integrationsmerkmalen. So wird verschiedenen Anwendungsbereichen von Integrationsaufgaben durch die Einführung von Integrationsperspektiven (technisch/betriebswirtschaftlich) [11] bzw. Integrationssichten (Prozess-, Desktop- und Systemintegration) [29] Rechnung getragen. Einen Ansatz zur Unterscheidung von Datenintegrationsarchitekturtypen mit einem Ordnungsrahmen liefert Jung. Hierbei werden Integrationsarchitekturen merkmalbasiert, mithilfe eines morphologischen Kastens differenziert [11]. 100 2.2. Metamodellbasierte Differenzierung von Integration Die Konstruktion problemadäquater, situativer Methoden für die Durchführung von Integrationsprojekten erfordert eine grundlegende Kenntnis über die Struktur der zu bewältigenden Integrationsaufgaben. Bisherige Ansätze zur Beschreibung und Abgrenzung der Integrationsaufgaben erfolgen jedoch ausschließlich merkmalsbasiert. Eine derartige, phänomenologische Betrachtung von Integration beinhaltet immer bereits relevante Kontingenzfaktoren, wie etwa die Unternehmensgröße (bei Middleware- und EAI-Diskussionen) oder Faktoren der Unternehmenskultur (bei zwischenbetrieblicher Integration). Darum können grundlegende Integrationstypen auf diese Weise nicht sicher bestimmt werden. Um diesem Defizit zu begegnen, schlägt Winter [31] eine abstraktere Betrachtung von Integrationstypen vor. Hierbei werden mögliche Integrationsoperationen auf einem Metamodell der Unternehmensarchitektur analysiert. Ein solches Metamodell beschreibt die Artefakttypen und deren Beziehungen in einer Unternehmensarchitektur und kann als Strukturierungshilfe für Integrationsaufgaben herangezogen werden. Die Instanziierung der Artefakttypen in einem Unternehmensarchitekturmodell stellt die Basis für die systematische Transformation (etwa durch Integration) der Unternehmensarchitektur dar [1, 32]. Abbildung 1 gibt einen Überblick über die metamodellbasierte Unterscheidung fundamentaler Integrationstypen nach Winter [31], die nachfolgend weiter beschrieben werden. Artefakttyp A Artefakttyp A Artefakttyp B Artefakttyp B IntegrationsArtefakttyp Integrationstyp: Ableitung Integrationstyp: Alignment Artefakttyp A Artefakttyp A Artefakttyp B Artefakttyp A neu Integrationstyp:Bindung Legende: Integrationstyp:Vereinigung Modifikation durch Integration Abbildung 1: Fundamentale Integrationstypen nach Winter [31] Der Integrationstyp Alignment beschreibt das gegenseitige aneinander Ausrichten unterschiedlicher und sich unabhängig voneinander verändernder Artefakttypen. Das klassische Alignment-Beispiel ist das gegenseitige aneinander Ausrichten fachlicher Strukturen, wie Geschäftsprozessen, und der korrespondierenden IT-Architektur. Um eine lose Kopplung zu unterstützen werden AlignmentArtefakte gebildet. Hierdurch wird es möglich, dass lokale Änderungen nicht unmittelbar Auswirkung auf alle verbundenen Artefakte haben [6, 30]. Ein Beispiel für Alignment-Artefakttypen sind fachliche Services zur Verknüpfung von fachlichen Aktivitäten und IT-Funktionalitäten. Der zweite Integrationstyp in Abbildung 1 stellt die Integration als Ableitung von Artefakttypen im Metamodell dar. Artefakte eines Typs A werden aus den Artefakten eines Typs B abgeleitet, d. h. ihre Gestaltung beruht zu einem großen Teil auf Vorgaben, welche innerhalb eines anderen Artefakttyps gegeben sind. Die Ableitung der Aufbauorganisation aus der Ablauforganisation [5] oder 101 die Ableitung der Softwarearchitektur aus der Datenarchitektur [27] sind Beispiele für diesen Integrationstyp. Der dritte in Abbildung 1 vorgestellte Integrationstyp wird als Bindung bezeichnet. Werden verschiedene Instanzen des gleichen Artefakttyps miteinander gekoppelt, so entsteht im Metamodell eine rekursive Beziehung. Derartige Relationen entstehen etwa bei der Verbindung von Softwarekomponenten über Middleware oder EAI-Tools, die wiederum selbst Softwarekomponenten sind [18, 23, 24]. Der vierte vorgeschlagene fundamentale Integrationstyp wird als Vereinigung charakterisiert. Integration im Sinne von Vereinigung liegt dann vor, wenn das Metamodell nach der Durchführung von Integrationsprojekten weniger Artefakttypen aufweist als zuvor, z. B. wenn zwei (oder mehr) Artefakttypen zu einem verschmelzen [23]. Dies ist etwa bei Unternehmensübernahmen und Migrationsprojekten der Fall. Um Integrationsprojekte besser differenzieren und verstehen zu können und die zielgerichtete Konstruktion von Integrationsmethoden zu ermöglichen, werden die vorgeschlagenen fundamentalen Integrationstypen im Folgenden empirisch analysiert. Es existiert eine Vielzahl von Situationen, in denen sich die oben genannten Integrationstypen teilweise oder vollständig wiederfinden. Beispielhaft seien die Einführung von Standardsoftware, Outsourcing und Unternehmensinterne Reorganisation genannt. Die nachfolgend vorgestellte Untersuchung konzentriert sich auf die unternehmensübergreifenden Integration. Es zählt zu den ersten in der Wirtschaftsinformatik diskutierten Problemen [20] und ist durch seinen umfassenden Charakter noch immer hoch aktuell [26]. Unternehmensübergreifende Integration kann alle Architekturebenen und Artefakttypen der beteiligten Unternehmen betreffen. Beispielhafte Ausprägungen unternehmensübergreifender Integration sind Prozessintegration, etwa im Fall von Outsourcing oder die gemeinsame Nutzung von Applikationen durch verschiedene Organisationen. Die in diesem Zusammenhang anfallenden Integrationsaufgaben liefern somit eine breite Basis für die Untersuchung von Integrationstypen. 3. Empirische Analyse von Integrationsaufgaben Im Folgenden wird eine empirische Analyse vorgestellt, die auf Basis eines Fragebogens verschiedene Integrationsaufgaben bezüglich eines zugrunde liegenden latenten Zusammenhangs untersucht. Zunächst werden der Fragebogen sowie die durchgeführte Umfrage beschrieben. Anschließend wird mit Hilfe einer Faktorenanalyse der zugrunde liegende Zusammenhang expliziert. 3.1. Eigenschaften des Datensatzes Die empirische Analyse beruht auf einem Datensatz, welcher mittels Fragebogen im Rahmen einer 2008 durchgeführten Fachtagung zum Schwerpunkt Integration und Architektur erhoben wurde. Teilnehmende dieser Veranstaltung waren insbesondere Fach- und Führungskräfte aus den Bereichen Integrations- und Architekturmanagement. Der Fragebogen führt verschiedene Integrationsaufgaben an und fragt deren Relevanz in Bezug auf unternehmensübergreifende Integration ab. Dabei wird die Relevanz anhand einer 5-stufigen Likert-Skala erfasst. Im Vorfeld konnte der Fragebogen durch Experteninterviews sowie einen Pre-Test hinsichtlich seiner Verständlichkeit und Vollständigkeit geprüft werden. Insgesamt stehen 127 vollständig und konsistent ausgefüllte Fragebögen für die Analyse zur Verfügung. Die Zusammensetzung aus hauptsächlich deutschsprachigen Teilnehmern schränkt die Interpretation insofern nicht ein, als dass in erster Linie Einschätzungen von Großunternehmen (32% mit mehr als 5.000 Mitarbeitenden, sowie zusätzlich 28% mit mehr als 1.000 Mitarbeitenden) vorliegen, deren Integrationsprojekte ebenso international ausge102 richtet sind. Neben demografischen Angaben zum Unternehmenskontext wurde auch der Kenntnisstand der Teilnehmenden abgefragt. Hierbei gaben 79% der Befragten an, über mindestens fortgeschrittene Kenntnisse zur Thematik Integration zu verfügen. 3.2. Durchführung der Faktorenanalyse Um, wie in Abschnitt 2 vorgeschlagen, einen metamodellbasierten Zusammenhang zwischen verschiedenen Integrationsaufgaben zu identifizieren wird eine Faktorenanalyse durchgeführt. Die Faktorenanalyse extrahiert dafür eine geringe Anzahl wechselseitig unabhängiger Faktoren aus einer Vielzahl von Variablen. Sie unterstellt, dass es möglich ist, für eine Vielzahl von Variablen eines Datensatzes wenige gemeinsame Einflussgrößen (Faktoren) zu ermitteln. Mit Hilfe dieser Faktoren kann der Datensatz in komprimierter Form beschrieben werden. Ein Datensatz ist grundsätzlich geeignet für die Durchführung einer Faktorenanalyse, wenn er folgende Gütekriterien erfüllt: Zum einen wird das Kaiser-Meyer-Olkin-Kriterium (KMO), welches die Zusammengehörigkeit zwischen den Variablen ausdrückt, mit einem Wert größer 0,6 empfohlen [14]. Das KMO liegt in diesem Fall bei 0,841 und charakterisiert den Datensatz als „meritorious“ („verdienstvoll“). Ein weiteres Kriterium wird von der Anti-Image-Kovarianz abgeleitet. Diese Maßzahl bestimmt den Teil der Varianz, welcher nicht durch die verbleibenden Variablen im Datensatz erklärt wird. Nach Dziuban und Shirkey [4] sollte der Anteil nicht-diagonaler Elemente in der Anti-Image-KovarianzMatrix, welche ungleich Null sind, unter einem Anteil von 25% liegen. Dieser Wert beläuft sich im vorliegenden Datensatz auf 21,33% und bestätigt damit insgesamt die Eignung des Datensatzes für eine Faktorenanalyse. Basis für die Faktorenanalyse ist im vorliegenden Fall ein reduzierter Datensatz von 15 Variablen. Nicht berücksichtigt wurden Variablen, die im Fragebogen die Funktion von Kontrollfragen erfüllten. Mit Hilfe der Technik der Hauptkomponentenanalyse wurden vier Faktoren extrahiert, welche in Summe 61,44% der Varianz des gesamten Datensatzes erklären. Die resultierende Komponentenmatrix wurde mittels Varimax-Methode mit Kaiser-Normalisierung rotiert, um eine geeignete Interpretation der Ergebnisse zu unterstützen. In Tabelle 1 werden die analysierten Variablen (Items) bezüglich ihrer Ladung auf die extrahierten Faktoren dargestellt. Tabelle 1: Faktorladungen der ausgewählten 15 Items Item 1.1 Item 1.2 Item 1.3 Item 1.4 Item 2.1 Item 2.2 Item 2.3 Item 3.1 Item 3.2 Item 3.3 Item 3.4 Item 4.1 Item 4.2 Item 4.3 Item 4.4 Faktor 1 0,488 0,589 0,723 0,790 0,117 0,341 0,170 0,014 0,246 0,045 0,167 0,015 0,331 0,251 0,046 Faktor 2 0,347 0,252 0,122 0,139 0,784 0,684 0,705 0,147 0,024 0,363 -0,051 0,319 0,272 0,027 0,013 103 Faktor 3 -0,022 0,191 0,099 0,162 0,124 -0,064 0,259 0,690 0,797 0,590 0,629 0,322 0,133 0,235 0,196 Faktor 4 0,353 0,229 0,207 -0,038 0,161 0,047 0,090 0,170 0,088 0,206 0,331 0,677 0,665 0,810 0,836 Die Zuteilung einer Variablen zu einem Faktor erfolgt unter Berücksichtigung ihrer jeweiligen Faktorladungen. Eine Faktorladung spiegelt dabei die Korrelation zwischen der Variable und den extrahierten Faktoren wider. Eine Variable wird einem Faktor zugeordnet, wenn die Faktorladung den maximalen Wert für diese Variable repräsentiert und im Betrag den Wert 0,5 übersteigt [8]. Eine Ausnahme für diese Regel liegt bei Item 1.1 vor. Hier erfolgt die Zuordnung zu Faktor 1 auf Basis des höchsten Wertes der Faktorladungen. Um die Reliabilität der identifizierten Faktoren zu bestimmen wurde zusätzlich Cronbach’s Alpha als Maßzahl für die interne Konsistenz der Variablen eines Faktors berechnet. Es wird unterstellt, dass die Variablen eines Faktors ein gemeinsames latentes Konstrukt beschreiben, und aus diesem Grund stark miteinander korrelieren. Ein Wert größer als 0,7 gilt allgemein als hinreichend für die positive Beurteilung der Reliabilität [7]. Die Werte für diese Maßzahl betragen im vorliegenden Fall 0,8 (Faktor 1), 0,728 (Faktor 2), 0,739 (Faktor 3) sowie 0,871 (Faktor 4), sodass die interne Konsistenz der Faktoren im Ergebnis als hinreichend gut bewertet werden kann. 4. Ergebnisse der empirischen Analyse und ihre Implikationen Im Folgenden wird die Zuordnung von Integrationsaufgaben zu den jeweiligen Faktoren erläutert sowie eine Interpretation der extrahierten Faktoren vorgenommen. Im Anschluss wird aufgezeigt, inwiefern diese Faktoren den dargestellten fundamentalen Integrationstypen aus Abschnitt 2 entsprechen. 4.1. Interpretation der extrahierten Einflussfaktoren Für die im Fragebogen abgefragten Integrationsaufgaben können vier grundlegende Einflussfaktoren identifiziert werden. Insgesamt laden vier Variablen auf Faktor 1, wie in Tabelle 1 dargestellt. Tabelle 2: Variablen, die auf Faktor 1 laden Item 1.1 Die Integrationsaufgabe umfasst die Definition von Geschäftsfähigkeiten, um strategische Ziele und Geschäftsprozesse aneinander auszurichten. Item 1.2 Im Rahmen der Integrationsaufgabe werden Domänen definiert, um z. B. die Aufbauorganisation und die Anwendungssysteme zu verbinden. Item 1.3 Die Integrationsaufgabe umfasst das Alignment von fachlichen Funktionsblöcken und ITSystemen. Item 1.4 Im Rahmen der Integrationsaufgabe werden fachlichen Services gebildet, um Anwendungssysteme und Geschäftsentwicklung abzustimmen. Die zugeordneten Aufgaben beinhalten jeweils die Erstellung eines zusätzlichen Artefakttyps im Rahmen der Integration. So ist z. B. die Integration von fachlichen Funktionsblöcken und ITSystemen durch die Definition und wechselseitige Verankerung des zusätzlichen konzeptionellen Konstruktes der Applikation möglich. Ebenso kann die Verknüpfung von Geschäftsprozessen und strategischen Zielstellungen einer Organisation mit der Einführung eines weiteren konzeptionellen Konstruktes „Geschäftsfähigkeit“ umgesetzt werden. Ausschlaggebend ist für diesen Faktor die wechselseitig unabhängige Entwicklung und Bewirtschaftung der zu integrierenden Artefakte in einer Organisation, sodass eine Integration nicht mit Hilfe einer direkten Verknüpfung zwischen den Artefakttypen erfolgen sollte. Die drei Integrationsaufgaben, wie sie Faktor 2 abbildet (Tabelle 3), betonen insbesondere ein gerichtetes Verständnis von Integration. 104 Tabelle 3: Variablen, die auf Faktor 2 laden Item 2.1 Die Integrationsaufgabe umfasst die Ableitung von strategischen Kennzahlen aus den strategischen Zielen. Item 2.2 Bei der Integrationsaufgabe wird die Prozessgestaltung auf Basis des vorhandenen Leistungs- und Zielsystem durchgeführt. Item 2.3 Die Integrationsaufgabe beinhaltet die Definition einer Aufbauorganisation unter Berücksichtigung der Ablauforganisation. So wird z. B. die Prozessgestaltung derart durchgeführt, dass in erster Linie Vorgaben und Anforderungen aus dem Leistungs- und Zielsystem einer Organisation zu berücksichtigten sind. Analog richtet sich die Gestaltung der Aufbauorganisation maßgeblich nach den Vorgaben, welche die Ablauforganisation definiert. Charakteristisch für Faktor 2 ist somit die einseitige Abhängigkeit der zu integrierenden Artefakttypen: Bei der Integration leiten sich die Eigenschaften eines Artefakttyps direkt aus den Vorgaben des führenden Artefakttyps ab. Tabelle 4: Variablen, die auf Faktor 3 laden Item 3.1 Bei der Integrationsaufgabe werden Geschäftsprozesse über ein Workflowmanagementsystem verknüpft. Item 3.2 Die Integrationsaufgabe umfasst die Einführung einer Middleware, um Anwendungssysteme miteinander zu verbinden. Item 3.3 Die Integrationsaufgabe beinhaltet die Verbindung von analytischen und operativen Systemen über ein Data Warehouse. Item 3.4 Die Integrationsaufgabe umfasst die Einführung von Softwarekomponenten, die Softwaremodule zusammenfassen. Tabelle 4 zeigt die vier Variablen, die auf Faktor 3 laden. Dieser Faktor umfasst Integrationsaufgaben, die den Zweck verfolgen, den Schnittstellenwildwuchs bspw. innerhalb einer Anwendungslandschaft oder einer Prozesslandschaft zu minimieren. Charakteristisch für die Integration ist dabei, dass die Kopplung zwischen z. B. analytischen und operativen Systemen, welche als m:nSchnittstelle realisiert ist, durch eine n:1-Kopplung der Systeme abgelöst wird. Es wird somit die Komplexität bei der Verknüpfung von Artefakten gleichen Typs adressiert und z. B. durch Einführung von Bus-Konzepten eine Entflechtung und effizientere Schnittstellenwartung erzielt. Tabelle 5: Variablen, die auf Faktor 4 laden Item 4.1 Im Rahmen der Integrationsaufgabe erfolgt die Zusammenlegung von verschiedenen Organisationsbereichen. Item 4.2 Die Integrationsaufgabe beinhaltet die Konsolidierung von Geschäftsprozessen. Item 4.3 Die Integrationsaufgabe beinhaltet die Zusammenführung von Anwendungssystemen. Item 4.4 Die Integrationsaufgabe umfasst die Konsolidierung der IT-Infrastruktur. Die vier Integrationsaufgaben, die mit Hilfe von Faktor 4 gemeinsam erklärt werden können, beschreiben stets eine Vereinigung von Artefakttypen (Tabelle 5). Im Zuge eines Integrationsprojektes werden beispielsweise Kundenstämme zusammengelegt oder IT-Landschaften konsolidiert. Faktor 4 umfasst aber auch die Konsolidierung von systemnahen Entitäten, wie z. B. Anwendungssystemen oder der gesamten IT-Infrastruktur. Im Gegensatz zu den bereits beschriebenen Faktoren werden bei den Integrationsaufgaben dieses Faktors keine neuen Verbindungen oder Objekte geschaffen, sondern vorhandene Objekte miteinander vereint. 105 4.2 Zuordnung zu fundamentalen Integrationstypen In Abschnitt 2 wurde ein Ansatz zur Unterscheidung fundamentaler Integrationstypen vorgestellt, der auf der jeweiligen Integrationsoperation im Metamodell basiert. Zwischen den in der empirischen Analyse identifizierten Faktoren und den vorgeschlagenen Integrationstypen lässt sich unter Berücksichtigung der jeweils zugehörigen Integrationsaufgaben ein Zusammenhang erkennen, der im Folgenden beschrieben und interpretiert wird (Tabelle 6). Tabelle 6: Zuordnung der Faktoren zu metamodellbasierten Integrationstypen Faktor Faktor 1 Faktor 2 Faktor 3 Faktor 4 Integrationstyp Alignment Ableitung Bindung Vereinigung Faktor 1 beschreibt Integrationsaufgaben, die eine gegenseitige Ausrichtung verschiedener Artefakttypen beinhalten, welche autonomen Änderungen unterworfen sind. Auf Basis eines Metamodells empfiehlt sich hierfür die Einführung zusätzlicher Alignment-Artefakte, um die originären Artefakttypen aneinander auszurichten, ohne ihre unabhängige Entwicklung zu beeinflussen. Faktor 1 beschreibt somit ein Alignment unterschiedlicher Metamodellobjekte und kann dem in Abschnitt 2 vorgestellten Integrationstyp Alignment zugeordnet werden. Charakteristisch für Faktor 2 ist die einseitige Abhängigkeit der zu integrierenden Artefakttypen. Auf Basis des zugrunde gelegten Metamodellverständnisses wird eine solche direkte, gerichtete Verknüpfung zwischen zwei Artefakttypen durch eine neue Verbindung oder Referenz auf einen anderen Artefakttyp realisiert. Eine derartige Modellierungsvorschrift für die Integrationsaufgabe entspricht der Grundaussage des nach Winter vorgestellten Integrationstyp Ableitung. Bezogen auf die Abbildung in einem Metamodell steht bei Faktor 3 die Verknüpfung zwischen Instanzen eines Artefakttyps im Vordergrund. Dies erfolgt entweder durch eine Punkt-zu-Punkt-Verbindung oder durch eine effizientere Huband-Spoke Architektur und wird durch eine rekursive Beziehung von Metamodell-Elementen abgebildet. Der metamodellbasierte Integrationstyp Bindung beschreibt diese Abbildungsvorschrift und kann durch diesen Faktor erklärt werden. Mit Faktor 4 werden Integrationsaufgaben gemeinsam erklärt, die eine Reduktion von Artefakttypen im Metamodell bedingen: Durch die Verschmelzung von zwei verschiedenen Artefakttypen entsteht ein neuer Typ. Faktor 4 beschreibt somit die Grundidee des Integrationstyps Vereinigung, der diese Metamodelländerungen vorsieht. 5. Zusammenfassung und weiterer Forschungsbedarf Im vorliegenden Beitrag wurde eine empirische Analyse mit dem Ziel durchgeführt, die metamodellbasierte Definition grundlegender Integrationstypen anhand von Integrationsaufgaben empirisch zu überprüfen. Mit Hilfe der Faktorenanalyse konnte gezeigt werden, dass sich das Verständnis zu unterschiedlichen Integrationsaufgaben vor dem Hintergrund unternehmensübergreifender Integration durch vier latente Konstrukte beschreiben lässt. Eine Interpretation der jeweils beschriebenen Integrationsaufgaben erlaubt es, diese Konstrukte den in Abschnitt 2 beschriebenen Grundaussagen der vorgeschlagenen Integrationstypen zuzuordnen. Es kann jeweils eine unterschiedliche Integrationsoperation im Metamodell als Kriterium zur Abgrenzung von Integrationsaufgaben und damit zur differenzierten Beschreibung von Integration herangezogen werden. Dabei bleibt zu berücksichtigen, dass im Beitrag gewonnene Erkenntnisse zur metamodellbasierten Definition von Integrationstypen zunächst auf die Situation der unternehmensübergreifenden Integration beschränkt sind. Inwiefern sich die genannten Integrationstypen ähnlich deutlich auch in anderen Situationen wiederfinden, ist Gegenstand weiterer Untersuchungen. 106 Die fundamentalen Integrationstypen können dazu beitragen, die Heterogenität von Integrationsprojekten zu erfassen und zu strukturieren. Somit kann die Entwicklung situativer Methoden für das Integrationsmanagement ebenfalls strukturiert erfolgen. Der Anspruch auf Fundamentalität der vorgestellten Integrationstypen und der damit verbundenen Unabhängigkeit von nicht endlich bestimmbaren merkmalbasierten Ausprägungen des Phänomens Integration muss einer kritischen Prüfung unterzogen werden, da das verwendete Metamodell die exakte Übertragbarkeit der Integrationstypen einschränkt. Wird ein grundsätzlich anderes Metamodell zugrunde gelegt, so ist es u. U. notwendig, die gewählte Abbildungsvorschrift für eine Typisierung zu modifizieren. Für eine wissenschaftliche Auseinandersetzung stellt dies erste Implikationen für die Konstruktion von Methoden dar. Mit Bezug auf eine situative Methodenkonstruktion ist es notwendig, neben fundamentalen Integrationstypen auch die relevanten Kontextfaktoren, z. B. fundamental unterschiedliche, explizite oder implizite Metamodelle, im Rahmen von Integrationsprojekten zu erfassen. Für die Übertragbarkeit der Ergebnisse in die Praxis ist zu überprüfen, ob die Unterscheidung von Integration als Projektaufgabe gegenüber Integration als Daueraufgabe einen Einfluss auf die Abgrenzung der Integrationstypen und deren Anwendung in Integrationsmethoden hat. Um den Einsatz in der Praxis zu ermöglichen, ist die Definition und praktische Evaluation der Methodenfragmente und schließlich auch der Methoden auf Basis der Integrationstypen notwendig. 6. Literatur [1] AIER, S., RIEGE, C., WINTER, R., Unternehmensarchitektur - Literaturüberblick und Stand der Praxis, in: Wirtschaftsinformatik, 50 (4), 2008, S. 292-304. [2] BUCHER, T., KLESSE, M., KURPJUWEIT, S., WINTER, R.: Situational Method Engineering - On the Differentiation of "Context" and "Project Type", in: Ralyté, J., Brinkkemper, S., Henderson-Sellers, B. (Hrsg.): Proceedings of the IFIP WG8.1 Working Conference on Situational Method Engineering - Fundamentals and Experiences (ME07), Vol. 244, Springer, Boston 2007, S. 33-48. [3] DIETRICH, J., Nutzung von Modellierungssprachen und -methodologien standardisierter B2B-Architekturen für die Integration unternehmensinterner Geschäftsprozesse, Berlin 2008. [4] DZIUBAN, C. D., SHIRKEY, E. C., When is a Correlation Matrix Appropriate for Factor Analysis?, in: Psychological Bulletin, 81 (6), 1974, S. 358-361. [5] GAITANIDES, M., Prozessorganisation - Entwicklung, Ansätze und Programme des Managements von Geschäftsprozessen, 2. Auflage, München 2007. [6] GLASSMAN, R. B., Persistence and loose coupling in living systems, in: Behavioral Science, 18 (2), 1973, S. 8398. [7] HAIR JR., J. F., BLACK, B., BABIN, B., Multivariate Data Analysis, 6. Auflage, Australia et al. 2006. [8] HÄRDLE, W., SIMAR, L., Applied Multivariate Statistical Analysis, Berlin 2003. [9] HARMSEN, A. F., BRINKKEMPER, S., OEI, H.: Situational Method Engineering for Information System Project Approaches, in: Verrijn-Stuart, A.A., Olle, T.W. (Hrsg.): Proceedings of the IFIP 8.1 Working Conference on Methods and Associated Tools for the Information Systems Life Cycle, North-Holland, Amsterdam 1994, S. 169-194. [10] HEINE, P., Unternehmensweite Datenintegration, Stuttgart, Leipzig 1999. [11] JUNG, R., Architekturen zur Datenintegration. Gestaltungsempfehlungen auf der Basis fachkonzeptueller Anforderungen, Wiesbaden 2006. [12] KAGERMANN, H., ÖSTERLE, H., Geschäftsmodelle 2010 - Wie CEOs Unternehmen transformieren, Frankfurt 2006. [13] KAIB, M., Enterprise Application Integration - Grundlagen, Integrationsprodukte, Anwendungsbeispiele, Wiesbaden 2002. [14] KAISER, H. F., RICE, J., Little Jiffy, Mark Iv, in: Educational and Psychological Measurement, 34 (1), 1974, S. 111-117. 107 [15] KROMER, G., STUCKY, W., Die Integration von Informationsverarbeitungsressourcen im Rahmen von Mergers & Acquisitions, in: Wirtschaftsinformatik, 44 (6), 2002, S. 523-533. [16] KUMAR, K., WELKE, R. J., Methodology Engineering - A Proposal for Situation-specific Methodology Construction, in: Cotterman, W., Senn, J.A. (Hrsg.): Challenges and Strategies for Research in Systems Development, New York 1992, S. 257-269. [17] LINß, H., Integrationsabhängige Nutzeffekte der Informationsverarbeitung: Vorgehensmodell und empirische Ergebnisse, Wiesbaden 1995. [18] LINTHICUM, D. S., B2B Application Integration: e-Business-Enable Your Enterprise, Boston 2001. [19] LUFTMAN, J. N., MCLEAN, E. R., Key Issues for IT Executives, in: MIS Quarterly Executive, 3 (2), 2004, S. 89-104. [20] MERTENS, P., Die zwischenbetriebliche Kooperation und Integration bei der automatisierten Datenverarbeitung, Meisenheim am Glan 1966. [21] MERTENS, P., Integrierte Informationsverarbeitung 1, 16. Auflage, Wiesbaden 2007. [22] PICOT, A., REICHWALD, R., WIGAND, R. T., Die grenzenlose Unternehmung: Information, Organisation und Management, 5. Auflage, Wiesbaden 2003. [23] ROSEMANN, M., Gegenstand und Aufgaben des Integrationsmanagements, in: Scheer, A.W., Rosemann, M., Schütte, R. (Hrsg.): Integrationsmanagement, Münster 1999, S. 5-18. [24] SCHISSLER, M., MANTEL, S., FERSTL, O. K., SINZ, E. J., Kopplungsarchitekturen zur überbetrieblichen Integration von Anwendungssystemen und ihre Realisierung mit SAP/R3, in: Wirtschaftsinformatik, 44 (5), 2002, S. 459-468. [25] SCHISSLER, M., ZELLER, T., MANTEL, S., Überbetriebliche Integration von Anwendungssystemen: Klassifikation von Integrationsproblemen und -lösungen, in: Bartmann, D., Mertens, P., Sinz, E.J. (Hrsg.): Überbetriebliche Integration von Anwendungssystemen - FORWIN-Tagung 2004, Aachen 2004, S. 1-20. [26] SPERLING, S., Konzeption einer Methode zum Integrationsmanagement bei Unternehmenszusammenschlüssen auf der Basis von multiperspektivischen Unternehmensmodellen, Berlin 2007. [27] STAHL, T., VÖLTER, M., Modellgetriebene Softwareentwicklung. Techniken, Engineering, Management, 1. Auflage, Heidelberg 2005. [28] VAN SLOOTEN, K., HODES, B.: Characterizing IS Development Projects, in: Brinkkemper, S., Lytinnen, K., Welke, R.J. (Hrsg.): Proceedings of the IFIP TC8, WG8.1/8.2 Working Conference on Method Engineering, Springer, Berlin et al. 1996, S. 29-44. [29] VOGLER, P., Prozess- und Systemintegration - Evolutionäre Weiterentwicklung bestehender Informationssysteme mit Hilfe von Enterprise Application Integration, Wiesbaden 2006. [30] WEICK, K. E., Educational Organizations as Loosely Coupled Systems, in: Administrative Science Quarterly, 21 (1), 1976, S. 1-19. [31] WINTER, R.: Metamodellbasierte Taxonomie von Integrationsprojekten, Institut für Wirtschaftsinformatik, Universität St. Gallen, St. Gallen 2008. [32] WINTER, R., BUCHER, T., FISCHER, R., KURPJUWEIT, S., Analysis and Application Scenarios of Enterprise Architecture - An Exploratory Study, in: Journal of Enterprise Architecture, 3 (3), 2007, S. 33-43. 108 SITUATIVE METHODENKONSTRUKTION FÜR DIE PROJEKTBEWERTUNG AUS UNTERNEHMENSARCHITEKTURPERSPEKTIVE Stephan Aier, Christian Riege1, Marten Schönherr, Udo Bub2 Kurzfassung Unternehmensarchitekturmodelle können neben der reinen Dokumentation in sehr unterschiedlichen Anwendungsszenarien für verschiedene Stakeholder nutzenstiftend angewendet werden. Diese Modelle sind oft die einzige Quelle einer umfassenden aber hinreichend groben Dokumentation der Zusammenhänge in einem Unternehmen angefangen von der strategischen Positionierung bis zur technischen Infrastruktur. In diesem Beitrag werden am Beispiel der Innovationsprojekte der Deutschen Telekom Laboratories empirisch Projekttypen und jeweils geeignete Bewertungsaktivitäten basierend auf Analysen der Unternehmensarchitektur entwickelt. Diese Ergebnisse sind die Grundlage für die Entwicklung einer situativen Methode zur Projektbewertung auf Basis der Unternehmensarchitektur. 1. Herausforderungen bei Innovationsprojekten im Telekommunikationssektor Der Begriff Unternehmensarchitektur findet in der Wissenschaft sowie in der Praxis eine hohe Verbreitung und Akzeptanz [15, 19, 24]. Im Allgemeinen wird an dieser Stelle die Modellierung und Gestaltung der Unternehmensarchitektur diskutiert. Darüber hinaus können Unternehmensarchitekturmodelle in weiteren Szenarien [16] für eine breite Gruppe von Stakeholdern [14] Nutzen stiften. Dieser Beitrag untersucht am Beispiel der Deutschen Telekom Laboratories (T-Labs), wie Unternehmensarchitekturmodelle für die Bewertung von Innovationsprojekten genutzt werden können. Die T-Labs bündeln einen Großteil der Investitionen in Forschung und Innovation der Deutschen Telekom. Die Ergebnisse dieser Innovationsprojekte sollen sich an relevanten Produkten für die Deutsche Telekom orientieren. Der Prozess zur Filterung von Ideen und die Entscheidungsfindung, ob Ideen in Innovationsprojekte überführt werden, werden über drei so genannte Gates abgebildet, in denen schrittweise Aspekte wie Machbarkeit, Budget, Konsortialpartner und Zeitdauer detailliert werden. Die zu erwartenden Projektergebnisse werden mit den Stakeholdern aus den Geschäftseinheiten der Deutschen Telekom abgestimmt. Nach drei Jahren und mehr als 100 Innovationsprojekten wird zurzeit der Innovationsprozess bei den T-Labs kritisch überprüft. Vor allem wird dabei die Produktnähe in Form nicht-funktionaler Eigenschaften der Projektergebnisse betrachtet. Für die 1 Universität 2 Deutsche St. Gallen, Müller-Friedberg-Strasse 8, CH-9000 St. Gallen Telekom Laboratories, Ernst-Reuter-Platz 7, D-10587 Berlin 109 Überführung von Innovationen in Produkte ist es notwendig, die Anforderungen des anvisierten Produktumfeldes zu erfassen, in die Entwicklung einzubeziehen und begleitend zu prüfen [8]. Auf dieser Grundlage formulieren wir folgende Forschungsfrage: Wie kann die Bewertung von Innovationsprojekten methodisch unterstützt und dabei explizit die Heterogenität eines Projektportofolios sowie die Breite nicht-funktionaler Bewertungsaspekte berücksichtigt werden. Die Anforderung, ein heterogenes Projektportfolio insbesondere hinsichtlich nicht-funktionaler Eigenschaften, wie Produktrelevanz im Konzern zu bewerten, wird adressiert, indem die Unternehmensarchitektur als Bewertungsgrundlage vorgeschlagen wird. Es ist dabei nicht zweckmäßig, für jedes Innovationsprojekt Detailanforderungen über alle Ebenen einer Unternehmensarchitektur hinweg zu erheben, sondern entsprechend der Projekteigenschaften eine dedizierte Auswahl an Anforderungen zu nutzen. Entsprechend wird das Konzept der situativen Methodenkonstruktion herangezogen, um situationsbezogen die Bewertung unterschiedlicher Innovationsprojekte entlang der Unternehmensarchitektur zu ermöglichen. Dazu führt Kapitel 2 in die konzeptionellen Grundlagen zur situativen Methodenkonstruktion sowie zur Unternehmensarchitektur als Grundlage einer ganzheitlichen Bewertung ein. Kapitel 3 schlägt eine Segmentierung des Projektportfolios der T-Labs vor. Darüber hinaus werden für die identifizierten Projekttypen relevante Bewertungen aus der Perspektive der Unternehmensarchitektur vorgestellt und zu einem Vorgehensmodell im Sinne der situativen Methode verknüpft. Kapitel 4 beschreibt die Lerneffekte und zeigt den weiteren Forschungsbedarf auf. 2. Konzeptionelle Grundlagen Im Folgenden wird zunächst in das hier zugrunde liegende Verständnis der Unternehmensarchitektur eingeführt. Darauf aufbauend wird das Konzept der situativen Methodenkonstruktion vorgestellt und sein Nutzen in diesem Beitrag dargelegt. 2.1. Unternehmensarchitekturmodell als Bewertungsperspektive Gemäß ANSI/IEEE Std 1471-2000 ist Architektur definiert als ”the fundamental organization of a system, embodied in its components, their relationships to each other and the environment, and the principles governing its design and evolution” [11]. Die Unternehmensarchitektur stellt die fundamentale Strukturierung einer Organisation dar. Dahinter steht die Idee, die wichtigsten Gestaltungsobjekte eines Unternehmens und deren Beziehungen in Form von Modellen abzubilden. Die Modellbildung verfolgt das Ziel, auf einer aggregierten Ebene die gegenseitigen Abhängigkeiten der Gestaltungsobjekte eines Unternehmens zu beschreiben. Die Bandbreite der Gestaltungsobjekte reicht dabei von strategischen Aspekten, wie sie sich in der Positionierung zu Kunden, Lieferanten und Mitbewerbern widerspiegelt, über Gestaltungsobjekte der Aufbau- und Ablauforganisation bis hin zu Elementen der Daten- und Softwarearchitektur sowie der technischen Infrastruktur [23]. Aufbauend auf der Dokumentation der Strukturen einer Unternehmung, können Unternehmensarchitekturmodelle nach Niemann [16] in sehr unterschiedlichen Szenarien genutzt werden, in denen die wechselseitigen Abhängigkeiten der Gestaltungsobjekte von Bedeutung sind [22]. Ein mögliches Szenario ist die Bewertung und Steuerung von Innovationsprojekten [2]. Werden Ergebnisse von Innovationsprojekten in eine Produktivumgebung überführt, so tangiert dies i. d. R. eine Vielzahl von Gestaltungsobjekten. Die Unternehmensarchitektur ist oft die einzige, konsistente Dokumentation der betroffenen Gestaltungsobjekte sowie deren Abhängigkeiten. Sie stellt somit ein geeignetes Informationsverzeichnis dar welches sich als Basis für die Projektbewertung eignet. Auf dieser Basis können bereits im Projektverlauf nicht-funktionale Aspekte (z. B. Zielarchitekturkonformität) geprüft werden oder Impact-Analysen für alle betroffenen Architekturebenen durchgeführt werden. Aus diesen Analysen können dann weitere notwendige Initiativen außerhalb des Projektes (z. B. Erstellung notwendiger Infrastrukturen) sowie innerhalb des Projektes (z. B. Auswahl 110 von fachlichen oder technischen Standards für die Kompatibilität mit der Zielarchitektur) abgeleitet werden. Während bestehende Arbeiten vor allem auf die Bewertung der Unternehmensarchitektur selbst [12, 21] oder ausschließlich auf die IT-Architektur [18] fokussieren, widmen sich vor allem Foorthuis und Brinkkemper [9] der Beziehung zwischen Projektarchitekturen und der Unternehmensarchitektur. Sie gehen dabei nicht auf die Bewertung von Projekten ein, stellen jedoch auch fest, dass unterschiedliche Projekttypen eine differenzierte Betrachtung benötigen. 2.2. Situative Methoden zur Berücksichtigung unterschiedlicher Projekttypen In ihrer Eigenschaft als Informationsverzeichnis bilden Unternehmensarchitekturmodelle sehr breite Zusammenhänge ab und können darum für die methodisch gestützte Bewertung sehr unterschiedlicher Innovationsprojekte genutzt werden. In diesem Kontext kann es jedoch keine „onesize-fits-all“-Methode geben, welche alle denkbaren Ausprägungen von Projekteigenschaften gesamthaft abzudecken vermag. Abhängig vom jeweiligen Innovationsprojekt bedarf es einer spezifisch adaptierten Methode. Ansätze wie dieser werden unter dem Begriff der situativen Methodenkonstruktion diskutiert [4, 6, 10, 13, 20]. Wesentliche Bestandteile einer situativen Methode sind dabei eine Menge an Aktivitäten, sowie ein Vorgehensmodell, welches die Aktivitäten in sachlogische und zeitliche Ablauffolge setzt [6]. Unter Berücksichtigung des Gestaltungsgegenstandes Unternehmensarchitektur stellt die Methode die systematische Anleitung zur Analyse und Transformation der Unternehmensarchitektur oder Teile derselben dar. Die Anpassbarkeit bezüglich unterschiedlicher Projekteigenschaften wird realisiert, indem die Relevanz einzelner Aktivitäten für bestimmte Situationen angeführt wird. Für die Beschreibung einer Situation werden Projekttypen unterschieden und zusätzlich in ihren jeweiligen Kontexten beschrieben [6]. Ein Projekttyp konstituiert sich durch eine Reihe gleicher oder ähnlicher Eigenschaften der diesem Typ zugeordneten Projekte. Eine situative Methode kann dann für eine spezifische Situation, und damit für einen Projekttyp adaptiert werden. Die Erfahrungen aus der Methodenanwendung sowie aus der Methodenkonstruktion sollten nach dem Projekt reflektiert und für die spätere Nutzung dokumentiert werden [4]. Bucher et al. weisen darauf hin, dass nicht nur Projekttypen die effektive und effiziente Anwendung einer Methode wesentlich beeinflussen, sondern auch nicht beeinflussbare Kontingenzfaktoren zu berücksichtigen sind. Während es ähnliche Ansätze im Business Process Management [7] oder in der prozessorientierten Informationslogistik [5] gibt, existieren keine Arbeiten zur Situativität in der Bewertung und Steuerung von Innovationsprojekten. 3. Konstruktion der Methode Der vorgeschlagene Prozess für die situative Methodenkonstruktion unterscheidet grundlegend drei Phasen [4]: (a) Beschreibung des Projektes, (b) Definition der Methodenfragmente und (c) Konstruktion der situativen Methode. Im folgenden Abschnitt wird dieser Prozess für die Teilbereiche (a) Identifikation der Projekttypen (Kapitel 3.1), (b) Herleitung der Aktivitäten (Kapitel 3.2) und (c) Verknüpfung der Aktivitäten in einem Vorgehensmodell (Kapitel 3.3) am Beispiel der Innovationsprojekte der T-Labs umgesetzt. Im Ergebnis stehen damit exemplarische Aktivitäten zur Bewertung sowie ein situatives Vorgehensmodell, als wesentliche Bestandteile einer situativen Methode zur Bewertung von Innovationsprojekten, zur Verfügung. 3.1. Identifikation der Projekttypen durch Klassifikation des T-Labs Projektportfolios Die Beschreibung eines Innovationsprojektes erfolgt anhand von Eigenschaften, welche für die folgende Bewertung aus Unternehmensarchitekturperspektive relevant sind. Dazu ist es zunächst notwendig, das Projektportfolio unter Berücksichtigung dieser Eigenschaften zu segmentieren. Die Gruppenbildung ermöglicht es, gemäß ihrer Eigenschaften, homogene Projekte zusammenzufassen, 111 und die methodische Unterstützung einer Projektbewertung aus Unternehmensarchitekturperspektive auf diese Gruppen und ihre Besonderheiten hin auszurichten. In einem ersten Schritt wurden dazu 116 Innovationsprojekte aus dem Projektportfolio der T-Labs anhand der in Tabelle 1 angeführten Eigenschaften erfasst. Dies beinhaltet sowohl laufende Projekte, deren Angaben sich aus den Projektplänen ergeben, als auch abgeschlossene Projekte, für welche das nachgelagerte Projektcontrolling die entsprechenden Daten zur Verfügung stellt. Tabelle 1. Raster zur Projektbeschreibung Projektmerkmal Beschreibung Projektlaufzeit Gemäß Projektantrag veranschlagte Gesamtdauer bis zu einer Produktisierung Projektbudget Gemäß Projektantrag das Gesamtbudget des (Pb) Projektes in TSD EUR Umfang des Angabe wie viele Partner bei der ProjektdurchKonsortiums führung involviert sind Förderstatus Kennzeichnung ob das Projekt im Rahmen öffentlicher Förderprogramme (BMBF, EU) unterstützt wird Umfang der Anzahl der Konzerneinheiten, für welche das Zielgruppe Projekt verwertbare Ergebnisse generieren soll Zielgruppe im Kennzeichnung, welche Konzerneinheit(en) die Konzern Projektergebnisse verwenden soll(en) Ergebnistyp Angabe, welche Lieferobjekte das Projekt im Endergebnis hauptsächlich bereitstellen wird Softwareanteil Kennzeichnung, ob bei der Projektdurchführung in nennenswertem Umfang Software implementiert wird. Ausprägung der Projektmerkmale Angabe in Monaten Pb <= 250 250 < Pb <= 750 Pb > 750 Anzahl Projekt wird öffentlich gefördert Projekt wird nicht öffentlich gefördert Anzahl 0 bis 5 (0 bedeutet, dass keine Angaben hinterlegt sind) T-Com T-Online T-Systems T-Mobile T-Labs Wissensaufbau Konzept/Studie Projekt umfasst Softwareimplementierung Prototyp Projekt umfasst keine nennenswerte Softwareimplementierung Ziel der Erfassung war es, eine hohe Anzahl an Projekten abzudecken, und damit generalisierbare Aussagen über Zusammenhänge zwischen Projekteigenschaften zu gewinnen, die sich auf zukünftige Projekte übertragen lassen. Die Auswahl der Eigenschaften orientiert sich in erster Linie an der Verfügbarkeit notwendiger Daten für einen großen Teil des T-Labs Projektportfolios. In einem zweiten Schritt wurde auf Basis dieses Datensatzes eine Clusteranalyse durchgeführt. Sie hat zum Ziel, in einer heterogenen Gesamtheit von Objekten, Teilmengen zu identifizieren, welche eine möglichst homogene Eigenschaftsstruktur aufweisen. Diese Segmentierung erlaubt es, eine handhabbare Anzahl von Innovationsprojekttypen zu differenzieren, für die eine adaptierbare Bewertungsmethode konstruiert werden kann. Als Clusterverfahren wurde der Two-step Algorithmus gewählt. Er unterstützt die Gruppierung von Objekten, welche sowohl mit kategorial als auch mit metrisch skalierten Variablen beschrieben sind [3]. In einem zweistufigen Vorgehen erfolgt zunächst initial eine Gruppenbildung anhand der dichtesten Merkmalsverbindungen. Im zweiten Schritt werden die Clusteranzahl und die Zuordnung von Objekten zu Clustern mittels hierarchischer Clusteranalyse unter Beachtung der maximalen Änderung des Abstandes zwischen zwei Clustern verfeinert. Im Ergebnis wurden vier Cluster gebildet. Ihre Merkmale bezüglich der zugrunde liegenden Eigenschaften sind in Tabelle 2 dargestellt. Die identifizierten Cluster repräsentieren vier grundlegende Typen von Innovationsprojekten der TLabs. Die in Cluster 1 berücksichtigten Innovationsprojekte zeichnen sich durch eine vergleichsweise lange Projektdauer aus. Hier ist im Projektverlauf besonderes Augenmerk auf die nachhaltige Konformität des Projektgegenstandes mit der Zielarchitektur zu legen. Die hohe Anzahl an Konsortialpartnern bei Projekten in diesem Cluster schränkt die Einflussnahme auf die Projektdurchführung ein, d. h. die Erstellung von Teilergebnissen kann u. U. von der Bereitstellung von Teiler- 112 gebnissen durch Dritte abhängen. Die Tatsache, dass ein Projekt im Cluster i. d. R. mehrere Zieldivisionen im Konzern besitzt, erhöht das Risiko von Zielkonflikten, da die strategische Ausrichtung unter den Divisionen divergieren kann. Dies muss bei der Bewertung der Konformität mit einer Zielarchitektur gesondert adressiert werden. Unter Berücksichtigung der genannten Eigenschaften repräsentieren die Projekte in Cluster 1 den Projekttyp „Strategy Implementation“. Tabelle 2. Klassifikation von Projekttypen Clustereigenschaften Projektlaufzeit in m ( x ) Umfang der Zielgruppe ( x ) Umfang des Konsortiums ( x ) Projektbudget in TSD EUR Clusteranteile in % der Stichprobe Förderstatus Ergebnistyp: Konzept/Studie Ergebnistyp: Wissensaufbau Ergebnistyp: Prototyp Softwareanteil Cluster 1 (n=33) Cluster 2 (n=23) 21,3 10,6 1,8 1,7 5,0 50% > 750 40,5 53,2 0,0 55,0 51,7 1,2 68% < 250 2,7 37,1 10,4 0,0 0,0 Cluster 3 (n=42) 12,3 1,2 Cluster 4 (n=18) 20,4 1,5 2,1 55% < 250 3,3 750 > 50% > 250 40,5 9,7 62,7 0,0 18,3 16,2 0,0 26,9 45,0 30,0 Sum 100,0 100,0 100,0 100,0 100,0 In Cluster 2 finden sich Projekte mit einer relativ kurzen Laufzeit. Annahmen, welche zu Projektbeginn über die strategische bzw. taktische Ausgestaltung einer Zielumgebung, z. B. der Produktpalette, getroffen wurden, unterliegen i. d. R. keinen Modifikationen während der Projektdurchführung. Die Bündelung von Interessen, hervorgerufen durch mehrere Zieleinheiten im Konzern muss dennoch adressiert werden. Entlastet wird die Projektdurchführung durch eine geringe Anzahl an Konsortialpartnern. Die geringe Quote an öffentlich geförderten Projekten tangiert die Bewertung insofern, als dass Auflagen für zusätzliche Dokumentationspflichten sowie festgeschriebene Meilensteine für Projekte in diesem Cluster von untergeordneter Bedeutung sind. Da im Cluster 2 keine technische Realisation bzw. Softwareimplementierung im Vordergrund steht, kann sich eine Bewertung auf nicht-technische Aspekte konzentrieren. Cluster 2 umfasst somit Projekte, welche den Projekttyp „Proof-of-Concept“ verkörpern. Cluster 3 umfasst Projekte, welche im Allgemeinen eine einzige Zieleinheit im Konzern besitzen. Dementsprechend fokussiert muss die Prüfung auf Konformität mit dieser Zielumgebung erfolgen. Der vergleichsweise hohe Anteil an öffentlich geförderten Projekten bedeutet für dieses Cluster, dass oftmals bereits Vorgaben existieren, wann und wogegen der Projektgegenstand bewertet werden soll. Diese Vorgaben sind zu berücksichtigen bzw. in den eigenen Bewertungsansatz zu integrieren, in dem z. B. die Bewertungszeitpunkte koordiniert werden und damit u. a. die Datenerfassung ressourcenschonend erfolgt. Der Ergebnistyp Wissensaufbau ist dominierend für die Projekte des Clusters. Für die Bewertung bedeutet dies, dass im Gegensatz zu einer intendierten konkreten Produktentwicklung, hier Wiederverwendung und Modularisierung von Wissen für zukünftige Projekte ermöglicht werden soll und dementsprechend Dokumentation und Anreicherung der Wissensbasis zum Projektgegenstand geprüft werden muss. Die im Cluster 3 beschriebenen Projekte werden daher zum Projekttyp „External Co-Funded Basic Research“ zusammengefasst. Projekte in Cluster 4 sind wiederum durch eine lange Laufzeit gekennzeichnet, grenzen sich aber von Cluster 1 ab, da sie für eine vergleichsweise abgegrenzte Zieleinheit im Konzern und im Rahmen eines kleineren Konsortiums durchgeführt werden. Neben den Implikationen für die Bewertung, welche sich aus Projektlaufzeit und Größe des Konsortiums ergeben, muss hier zusätzlich berücksichtigt werden, dass es sich in der Mehrzahl um industriefinanzierte Projekte handelt. Die 113 Volatilität der Zielumgebung aus Sicht der Geschäftsarchitektur führt auch gerade für Projekte mit stark innovativem Charakter zur Notwendigkeit, die Annahmen aus dem Projektantrag mit der aktuellen Situation abzugleichen. Neben der Geschäftsarchitektur spielt auch die Weiterentwicklung der technischen Zielinfrastruktur eine bedeutende Rolle. Die Erstellung von Prototypen bedingt z. B., dass neben Anforderungen an die Software- und Datenarchitektur für die Abbildung eines neuen Produktes auch bei einer Überführung in ein Produkt benötigte Netzwerkressourcen antizipiert werden. Die im Cluster vereinten Projekte werden als „Co-Ordinated Applied Research“ bezeichnet. 3.2. Ableitung von Bewertungsdimensionen und -analysen Wie in Abschnitt 2.1 beschrieben, strukturiert ein Unternehmensarchitekturmodell Gestaltungsobjekte und die Zusammenhänge zwischen diesen Gestaltungsobjekten. Als Bewertungsgrundlage wird an dieser Stelle der Zielzustand für die Unternehmensarchitektur herangezogen. Er repräsentiert damit die Annahmen über die Zielumgebung, über alle relevanten Architekturebenen hinweg für ein zu bewertendes Innovationsprojekt. Dieser Ansatz fußt dabei auf Arbeiten, die eine ähnliche Unterscheidung der Zielarchitektur einer Umgebung im Unterschied zur spezifischen Projektarchitektur treffen [9]. Darüber hinaus unterstützt dieses Vorgehen die Modularisierung der Bewertung. Es sind eine Vielzahl von Analysen auf Basis der Unternehmensarchitektur definiert, die jeweils unterschiedliche Ziele der Architekturgestaltung unterstützen [16, 17, 22]. Diese Analysen operationalisieren die Projektbewertung, in dem sie u. a. Abhängigkeiten zwischen Gestaltungsobjekten aufzeigen sowie Auswirkungen eines Projektes auf die Zielumgebung transparent darstellen. Ebenso ist es möglich, die Konformität des Projektes sowohl bezüglich bestimmter Standards als auch gegen eine Zielumgebung zu prüfen. Ebenfalls werden fachliche Aspekte berücksichtigt, in dem z. B. der Umsetzungsgrad aufsichtsrechtlicher und gesetzlicher Anforderungen bewertet und dokumentiert wird. Abbildung 1 stellt die Bewertungsdimensionen aus Sicht einer generischen Unternehmensarchitektur dar. Die Dimensionen für die Bewertung aus Perspektive der Unternehmensarchitektur werden dabei durch die einzelnen Architekturebenen repräsentiert (vgl. für Ebenen der Unternehmensarchitektur [1, 23]). Abbildung 1 zeigt darüber hinaus jeweils relevante Gestaltungsobjekte und führt exemplarisch ausgewählte Beispielanalysen für einzelne Architekturebenen an. Analysetyp Abhängigkeits- und Auswirkungsanalyse Gestaltungsobjekte Abdeckungsanalyse Strategieebene Produkte, Marktsegmente, Geschäftspartner, Strat. Projekte Organisations- Integrationsebene ebene Geschäftsprozesse, Geschäftsfkt., Rollen, Org.Einheiten Konformitätsanalyse Wirtschaftlichkeitsanalyse 4 7 1 9 2 5 Domänen, Applikationen, fachliche Services 10 SoftwareInfrastrukturund ebene Datenebene Softwarekomponenten, Funktionshierarchien 8 3 Plattformen, Hardware- und Netzwerkkomponenten 6 Abbildung 1. Analysen auf Basis der Unternehmensarchitektur, in Anlehnung an [17] 114 Es ist sowohl möglich, Zusammenhänge zwischen Gestaltungsobjekten auf einer Ebene darzustellen, als auch ebenenübergreifende Zusammenhänge in die Bewertung zu integrieren. Folgende Beispielanalysen veranschaulichen diese Breite: 1. Ist die informationstechnische Abbildung des Produktes in einer Zielumgebung mittels Reorganisation von Services möglich? 2. Wie stellt sich die Reife der Organisation bezüglich des Marktzugangs und des Mitarbeiterprofils dar, um das Projektergebnis in ein Produkt zu überführen? 3. Setzt die Implementierung auf bestehende Infrastrukturkomponenten der Zielumgebung auf? Welche Optionen zur Wiederverwendung von Plattformen, Netzwerkkomponenten erlaubt die zugrunde liegende Softwarearchitektur? 4. Unterstützt das zu entwickelnde Produkt/Projekt die strategische Ausrichtung der Zielkonzerneinheit(en)? 5. Können in den Produktionsprozessen bestehende fachliche Fähigkeiten verwendet werden oder müssen neue Kompetenzen aufgebaut werden? 6. Ist die für die Implementierung erforderliche Infrastruktur/Plattform in der erforderlichen Reife vorhanden/getestet? Genügt sie den Anforderungen der Zielkonzerneinheit an einen Branchenstandard? 7. Sind für die Überführung des Projektergebnisses in ein Produkt notwendige Prozesse/organisatorische Einheiten konsistent im gewünschten Geschäftsprozessmodell abzubilden? Wo ist ggf. ein Reengineering mit welchem Aufwand notwendig? 8. Sind zur Produktenwicklung notwendige Modifikationen an Software- bzw. Datenarchitektur unter Berücksichtigung der Projektlaufzeit durchführbar? 9. Ergibt sich ein positiver Business Case, wenn in der Produktion auf bestehende Mitarbeiterressourcen/Vertriebskanäle zurückgegriffen werden kann? 10. Erhöht der geplante Ausbau der Netzinfrastruktur auf Basis von Projektergebnissen den Kundennutzen? Die angeführten Beispielanalysen demonstrieren ein breites Spektrum für die Bewertung von Innovationsprojekten. Im Sinne einer situativen Methodenkonstruktion ist dabei nicht jede mögliche Analyse sinnvoll auf jeden Projektgegenstand zu übertragen. Die Segmentierung von Projekten in Abschnitt 3.1 zeigt, dass bereits auf Basis grundlegender Eigenschaften verschiedene Projekttypen existieren. So ist z. B. die projektbegleitende Kontrolle der Strategiekonformität weniger relevant für Projekte aus dem Cluster 2, da deren angesetzte durchschnittliche Laufzeit einen Strategiewechsel im Projektverlauf kaum wahrscheinlich macht. Ein weiteres Beispiel für eine situative Nutzung von Bewertungsanalysen stellt die Bewertung anhand standardkonformer Infrastrukturelemente dar. Hier sind in erster Linie Projekte aus den Clustern 1 und 4 zu berücksichtigen, während Projektergebnisse aus den Clustern 2 und 3 mehrheitlich konzeptioneller Natur sind und eher die grundsätzliche Reife einer Organisation berücksichtigen sollen. 3.3. Einbettung der Bewertung in ein Vorgehensmodell Innovationsprozesse zeichnen sich nicht nur durch Freiheitsgrade beim Forschungsgegenstand aus, sondern auch durch eine vergleichsweise geringere Belastung bei der Projektadministration [8]. Um diesem Charakter gerecht zu werden, muss zusätzlicher administrativer Aufwand, welcher die Bewertung von einzelnen Projekten verursacht, minimal gehalten werden. Aus diesem Grund wird angestrebt, die Bewertung innerhalb bestehender Innovationsprozesse zu verankern. In dem sich Aktivitäten zur Bewertung in etablierte Prozessmodelle einfügen, kann ebenso sichergestellt werden, dass die notwendige Akzeptanz bei den Nutzenden gegeben ist und zukünftige Prozessveränderungen berücksichtigt werden. Es gilt im Rahmen der hier festgeschriebenen Aktivitäten den Bewertungsansatz aus Unternehmensarchitekturperspektive so zu verankern, dass erstens Zeitpunk- 115 te und zweitens relevante Dimensionen für eine Bewertung definiert werden. In Anlehnung an Abbildung 1 ist für jede Bewertungsdimension eine Checkliste in Form konkreter Bewertungsfragen definiert, welche für das jeweilige Projekt zu dokumentieren sind. Abbildung 2 zeigt vereinfacht den Innovationsprozess der T-Labs, wie ihn jedes Projekt durchläuft. Gate 4 Projektbewertung aus Unternehmensarchitektur perspektive Gate 1 Idea Proposal Gate 2 Project Scheme Kick-off Gate 3 Project Plan Produktisierung in Konzerneinheit(en) … P&I internal R&D Panel Innovation Board Milestone 1 Milestone n Transfer Project Innovation Board t Abbildung 2. Innovationsprozess der T-Labs Die Projektbewertung setzt dabei nach der endgültigen Projektfreigabe durch das Innovation Board an, da erst zu diesem Zeitpunkt zusätzlicher Aufwand für die Durchführung der Methode zur Bewertung sinnvoll ist. Außerdem soll gewährleistet werden, dass neben dem etablierten Projektauswahlprozess, auch nach der Freigabe die Konformität mit der Zielumgebung besteht. Tabelle 3 stellt die Aktivitäten dar, wie sie im Rahmen der Methodenkonstruktion definiert wurden. Die Auswahl der Aktivitäten leitet sich aus dem dargestellten Verständnis zur Unternehmensarchitektur ab und integriert Anforderungen des bestehenden Innovationsprozesses. Neben einer Beschreibung wird für die jeweilige Aktivität das resultierende Ergebnis dargestellt sowie die notwendigen Vorbedingungen für ihre Ausführung angegeben. Die Kennzeichnung der Relevanz für die identifizierten grundlegenden Projekttypen der T-Labs adressiert die situative Adaption der Methode, indem einzelne Aktivitäten als relevant für einen Projekttyp charakterisiert sind. Tabelle 3. Vorgehensmodell, Relevanz einzelner Aktivitäten für die identifizierten Projekttypen ID Beschreibung der Aktivität Ergebnisse der Aktivität Vorbe- Projekttypen/ Aktivität dingung Cluster A1 A2 A3 A4 A5 A6 A7 A8 A9 Im Rahmen der Meilensteine im Projektplan wird Projekt-individuell festgelegt, wann eine Bewertung durchgeführt wird Abstimmung mit externen Bewertungsvorgaben Festlegung der Bewertungsdimension, z. B. anhand der Projekttypisierung Bewertung/Analysen mit Bezug zur Strategieebene Bewertung/Analysen mit Bezug zur Organisationsebene Dokumentierte(r) Zeitpunkt(e) einer Bewertung Dokumentierte Berichtspflicht gegenüber Dritten Bewertungsdimension(en) für das Projekt Dokumentierte Strategiekonformität, z. B. mit Zieleinheit im Konzern Dokumentierte Geschäftsprozesskonformität, z. B. Konsistenz bezogen auf das Geschäftsprozessmodell Bewertung/Analysen mit Bezug zur InDokumentation des Business/ITtegrationsebene Alignment Bewertung/Analysen mit Bezug zur Dokumentation Konformität, Software/Datenebene Änderungsbedarfe Softwarearchitektur Bewertung/Analysen mit Bezug zur InDokumentation Plattformverfügbarfrastrukturebene keit, z. B. bzgl. Standardkonformität Ableitung von Steuerungsmaßnahmen auf Entscheid über Ressourcenzuteilung Basis der Bewertungsergebnisse oder Projektaussetzung 116 Freigabe CL1, CL2, CL3, CL4 A1 CL1, CL3 A1, A2 A3 CL1, CL2, CL3, CL4 CL1, CL4 A3 CL1, CL2 A3 CL1, CL2, CL3, CL4 CL1, CL3, CL4 CL1, CL4 A3 A3 A4-A8 CL1, CL2, CL3, CL4 Die Aktivitäten orientieren sich dabei u. a. an den beschriebenen Ebenen einer Unternehmensarchitektur und sind somit jeweils Anknüpfungspunkt für die in Abbildung 1 exemplarisch angeführten Analysen zur Bewertung von Projekten. Auf Basis der dokumentierten Projektbewertung und unter Berücksichtigung spezieller Projekttypen werden verschiedene Steuerungsmaßnahmen vorgeschlagen. Diese dienen dazu, eventuelle Fehlentwicklungen im Projekt zu kompensieren, indem z. B. erneut die Zieleinheit im Konzern um eine Stellungnahme zu ihrer zukünftigen Plattformstrategie gebeten wird. Darüber hinaus ist es möglich, Bewertungsergebnisse zu nutzen, um einem Projekt zusätzliche Ressourcen zuzuteilen, insbesondere für den Fall, dass die Einschätzung für eine Produktrelevanz zu knapp bemessen war und nun deutlich früher mit einer möglichen Umsetzung als Produkt zu rechnen ist. Wichtig ist an dieser Stelle, dass die Bewertung aus Unternehmensarchitekturperspektive alle weiteren relevanten Einflussfaktoren für ein solches Projekt geprüft hat. 4. Diskussion und weiterer Forschungsbedarf Der Beitrag zeigt, wie das Konzept situativer Methodenkonstruktion genutzt werden kann, um die Bewertung von Innovationsprojekten unter besonderer Berücksichtigung der Unternehmensarchitekturperspektive durchzuführen. Im Rahmen des vorgeschlagenen Prozesses zur Konstruktion situativer Methoden [4] wurde das Projektportfolio der T-Labs in vier grundlegende Projekttypen segmentiert. Darüber hinaus wurden auf Basis eines Unternehmensarchitekturmodells verschiedene Bewertungsanalysen abgeleitet, welche als Aktivitäten im Rahmen eines Vorgehensmodells den Projekttypen zugeordnet wurden. Die Zuordnung gibt Auskunft zur situativen Adaptierbarkeit der Methode, in dem die Relevanz bestimmter Aktivitäten für einzelne Projekttypen beurteilt wurde. Wichtiger Bestandteil der gegenwärtigen Arbeit ist die Instanziierung der vorgeschlagenen Aktivitäten im Rahmen einer aktuell durchgeführten Projektbewertung. Dies ist notwendig, um einerseits die Adaptierbarkeit einzelner Aktivitäten für die vorgeschlagenen Projekttypen zu bestätigen und andererseits die grundsätzliche Güte der Projektklassifikation zu ermitteln. Weiterer Forschungsbedarf ergibt sich z. B. dann, wenn sich die Segmentierung als zu grobgranular erweist, um für einen relevanten Ausschnitt des T-Labs Projektportfolios Nutzen stiftend zu sein. Darüber hinaus sind weitere Elemente, wie z. B. das Rollenmodell für eine situative Methode zu dokumentieren. Weiterhin ist es möglich, die Methodenbausteine (ohne die spezifischen Projekttypen) so generisch zu gestalten, dass sie für eine breite Menge von Forschungs- und Entwicklungsprojekten anwendbar sind. Andererseits ließen sich durch die Betrachtung branchenspezifischer Referenzarchitekturmodelle, z. B. eTOM im Telekommunikationssektor, Innovationsprojekte präziser bewerten und standardisierte Steuerungsmaßnahmen ableiten. Zusammenfassend zeigt der Beitrag, wie die Bewertung unterschiedlicher Projekttypen im Kontext nicht-funktionaler Anforderungen aus Unternehmensarchitekturperspektive unterstützt werden kann. Die segmentierten Projekttypen dienen dazu, ein Vorgehensmodell für die Bewertung so zu strukturieren, dass abgestimmt auf den Projekttyp relevante Analysen auf Basis der Unternehmensarchitektur ausgewählt werden können. Um die Tragfähigkeit des vorgestellten Ansatzes zu prüfen, wird in einem nächsten Schritt ein Ausschnitt des Projektportfolios analysiert. 5. Literatur [1] AIER, S., RIEGE, C., WINTER, R., Unternehmensarchitektur – Literaturüberblick und Stand der Praxis, in: Wirtschaftsinformatik, 50 (4), 2008, S. 292-304. [2] ARNOLD, H. M., DUNAJ, M.: Enterprise Architecture and Modularization in Telco R&D as a Response to an Environment of Technological Uncertainty: Proceedings ICIN 2007. [3] BACHER, J., WENZIG, K., VOGLER, M.: SPSS TwoStep Clustering - A First Evaluation: Proceedings of Sixth International Conference on Logic and Methodology, Amsterdam 2004. 117 [4] BAUMÖL, U.: Strategic Agility through Situational Method Construction, in: Reichwald, R., Huff, A.S. (Hrsg.): Proceedings of the European Academy of Management Annual Conference 2005. [5] BUCHER, T., DINTER, B.: Process Orientation of Information Logistics - An Empirical Analysis to Assess Benefits, Design Factors, and Realization Approaches, in: Sprague Jr., R.H. (Hrsg.): Proceedings of the Forty-First Annual Hawaii International Conference on System Sciences (HICSS-41), IEEE Computer Society, Los Alamitos 2008. [6] BUCHER, T., KLESSE, M., KURPJUWEIT, S., WINTER, R.: Situational Method Engineering - On the Differentiation of "Context" and "Project Type", in: Ralyté, J., Brinkkemper, S., Henderson-Sellers, B. (Hrsg.): Proceedings of the IFIP WG8.1 Working Conference on Situational Method Engineering - Fundamentals and Experiences (ME07), Vol. 244, Springer, Boston 2007, S. 33-48. [7] BUCHER, T., WINTER, R., Classification of Business Process Management Approaches - An Exploratory Analysis, in: BIT - Banking and Information Technology, 7 (3), 2006, S. 9-20. [8] COOPER, R. G., Best practices in product innovation what distinguishes top performers, Ancaster, ON 2003. [9] FOORTHUIS, R. M., BRINKKEMPER, S.: A Framework for Project Architecture in the Context of Enterprise Architecture, in: Lankhorst, M.M., Johnson, P. (Hrsg.): Proceedings of the Second Workshop on Trends in Enterprise Architecture Research (TEAR 2007), June 6 2007, St. Gallen, Switzerland, Via Nova Architectura 2007, S. 51-60. [10] HARMSEN, A. F., BRINKKEMPER, S., OEI, H.: Situational Method Engineering for Information System Project Approaches, in: Verrijn-Stuart, A.A., Olle, T.W. (Hrsg.): Proceedings of the IFIP 8.1 Working Conference on Methods and Associated Tools for the Information Systems Life Cycle, North-Holland, Amsterdam 1994, S. 169-194. [11] IEEE: IEEE Recommended Practice for Architectural Description of Software Intensive Systems (IEEE Std 14712000), IEEE Computer Society, New York, NY 2000. [12] JOHNSON, P., LAGERSTRÖM, R., NÄRMAN, P., SIMONSSON, M.: Extended Influence Diagrams for Enterprise Architecture Analysis: Proceedings,Tenth IEEE International 2006, EDOC Enterprise Computing, IEEE Computer Society, Los Alamitos, California, USA, et al. 2006, S. 3-12. [13] KUMAR, K., WELKE, R. J., Methodology Engineering - A Proposal for Situation-specific Methodology Construction, in: Cotterman, W., Senn, J.A. (Hrsg.): Challenges and Strategies for Research in Systems Development, New York 1992, S. 257-269. [14] KURPJUWEIT, S., WINTER, R.: Viewpoint-based Meta Model Engineering, in: Reichert, M., Strecker, S., Turowski, K. (Hrsg.): Enterprise Modelling and Information Systems Architectures - Concepts and Applications, Proceedings of the 2nd Int'l Workshop EMISA 2007, Vol. P-119, Gesellschaft für Informatik, Köllen, Bonn 2007, S. 143161. [15] MERTENS, P., Diskussionsrunde zum Thema „Unternehmensarchitekturen in der Praxis“, in: Wirtschaftsinformatik, 46 (4), 2004, S. 315. [16] NIEMANN, K. D., Von der Unternehmensarchitektur zur IT-Governance: Leitfaden für effizientes und effektives IT-Management, (Edition CIO). Auflage 2005. [17] RIEGE, C., STUTZ, M., WINTER, R., Geschäftsanalyse im Kontext der Unternehmensarchitektur, in: Hmd Praxis Der Wirtschaftsinformatik, 43 (262), 2008 [18] SIMONSSON, M., LINDSTRÖM, Å., JOHNSON, P., NORDSTRÖM, L., GRUNDBÄCK, L., WIJNBLADH, O.: Scenario-Based Evaluation of Enterprise Architecture - A Top-Down Approach for CIO Decision-Making: Proceedings of the International Conference on Enterprise Information Systems 2006, S. 130-137. [19] SINZ, E. J., Unternehmensarchitekturen in der Praxis – Architekturdesign am Reißbrett vs. situationsbedingte Realisierung von Informationssystemen, in: Wirtschaftsinformatik, 46 (4), 2004, S. 315-316. [20] VAN SLOOTEN, K., HODES, B.: Characterizing IS Development Projects, in: Brinkkemper, S., Lytinnen, K., Welke, R.J. (Hrsg.): Proceedings of the IFIP TC8, WG8.1/8.2 Working Conference on Method Engineering, Springer, Berlin et al. 1996, S. 29-44. [21] VASCONCELOS, A., SOUSA, P., TRIBOLET, J., Information System Architecture Metrics: an Enterprise Engineering Evaluation Approach, in: The Electronic Journal Information Systems Evaluation (EJISE), 10 (1), 2007, S. 91122. [22] WINTER, R., BUCHER, T., FISCHER, R., KURPJUWEIT, S., Analysis and Application Scenarios of Enterprise Architecture - An Exploratory Study, in: Journal of Enterprise Architecture, 3 (3), 2007, S. 33-43. [23] WINTER, R., FISCHER, R., Essential Layers, Artifacts, and Dependencies of Enterprise Architecture, in: Journal of Enterprise Architecture, 3 (2), 2007, S. 7-18. [24] WÖBKING, F., Unternehmensarchitekturen in der Praxis - Architekturdesign am Reißbrett vs. situationsbedingte Realisierung von Informationssystemen, in: Wirtschaftsinformatik, 46 (4), 2004, S. 319-320. 118 SERVICEORIENTIERTE INTEGRATION MEDIZINISCHER GERÄTE – EINE STATE OF THE ART ANALYSE Christian Mauro, Ali Sunyaev1, Jan Marco Leimeister2, Helmut Krcmar1 Kurzfassung Geräte sind ein wesentlicher Bestandteil medizinischer Behandlungsprozesse. Für eine optimale IT-Unterstützung der Behandlung ist daher die Prozessintegration und die Interoperabilität dieser Geräte erforderlich. Der Ansatz der serviceorientierten Geräteintegration versucht, diesen Anforderungen gerecht zu werden. Anhand eines Szenarios führt der vorliegende Beitrag in dieses noch junge Gebiet ein und gibt den State of the Art anhand einer Analyse existierender Literatur wieder. Berücksichtigt werden dabei Entwicklungen aus anderen Domänen wie z. B. der industriellen Automatisierung. Eine Reihe von Forschungslücken auf Anforderungsebene, technischer Ebene und Methodikebene werden identifiziert. 1. Einleitung Die Basis jeder serviceorientierten Architektur sind Services, die eine bestimmte Geschäftsfunktionalität zur Verfügung stellen [23]. Einzelne Services werden wiederum orchestriert, um einen bestimmten Geschäftsprozess abzubilden. Dabei werden Services in der Regel als Softwarekomponente angesehen. Insbesondere im medizinischen Bereich sind jedoch auch Geräte wesentlicher Bestandteil von (Behandlungs-)Prozessen. Für eine konsequente Umsetzung von serviceorientierten Architekturen in Krankenhäusern ist daher die serviceorientierte Integration medizinischer Geräte notwendig. Das folgende fiktive Szenario soll die Potentiale einer solchen Integration im Krankenhaus anschaulich verdeutlichen: Herr Müller sucht mit Beschwerden die Ambulanz eines Krankenhauses auf. Aufgrund der erstellten Diagnose muss Herr Müller stationär aufgenommen und operiert werden. Der auf der Diagnose basierende Behandlungspfad sieht vor der Operation die Durchführung einer Magnetresonanztomographie (MRT) vor. Für die MRT-Untersuchung und Operation benötigte Geräte sind serviceorientiert in die IT-Architektur des Krankenhauses eingebunden. Dadurch können freie Geräte automatisch gesucht und reserviert werden. Eine manuelle Buchung der Ressourcen und damit verbundene Zeitaufwände sind daher nicht mehr notwendig. Auch Reinigungs- oder Wartungsarbeiten an den Geräten können auf diese Weise dynamischer koordiniert werden. Die MRT-Bilder sind 1 Technische Universität München, Lehrstuhl für Wirtschaftsinformatik, Boltzmannstr. 3, D-85748 Garching b. München, Germany 2 Universität Kassel, Fachbereich Wirtschaftsinformatik, Nora-Platiel-Str. 4, D-34127 Kassel, Germany 119 direkt im Anschluss an die Untersuchung im KIS an der entsprechenden Stelle des Behandlungspfades eingeordnet und einsehbar. Diese Zuordnung ermöglicht in Verbindung mit der visuellen Darstellung des Behandlungspfades ein schnelles Auffinden benötigter Informationen. In den Tagen vor der Operation werden regelmäßig wichtige Daten wie z. B. die Temperatur oder der Blutdruck erfasst. Manche Werte werden dabei von einer Schwester manuell erfasst und in einen PDA eingegeben, andere Werte werden direkt durch medizinische Geräte erfasst. An diesen Datenquellen können eine Reihe von Komponenten angemeldet sein. Dadurch werden die erhobenen Daten direkt in die medizinische Dokumentation aufgenommen und stehen unmittelbar nach Erfassung zur Verfügung. Darüber hinaus ist eine Komponente angemeldet, die medizinische Studien verwaltet. Die Datenerhebung für Studien kann somit in Echtzeit und ohne Medienbrüche erfolgen. Auch ist eine Monitoring-Komponente umgesetzt, die die erhobenen Daten im Gesamtkontext analysiert und z. B. feststellt, dass die geplante OP aufgrund des aktuellen Zustands von Herrn Müller nicht durchgeführt werden kann, weil das Risiko von Komplikationen zu groß wäre. Vorab reservierte Ressourcen werden automatisch freigegeben und dynamisch neu zugeordnet. Nachdem das System festgestellt hat, dass sich der Zustand von Herrn Müller wieder gebessert hat, wird die OP-Planung inkl. Reservierung aller Ressourcen neu angestoßen. Auch die während der OP und alle weiteren bis zur Entlassung von Herrn Müller erfassten Daten werden wiederum direkt in die Dokumentation sowie ggf. weitere Anwendungen integriert. Das Ziel serviceorientierter Geräteintegration ist es, die Realisierung solcher Szenarien zu ermöglichen und somit einen großen Schritt in Richtung der Vision „Seamless Healthcare“ zu gehen, bei der vertikal und horizontal durchgängige Prozesse, Daten und Informationstechnologie subsumiert werden [29]. Insbesondere soll die Entwicklung neuer Funktionalitäten, bei denen medizinische Geräte involviert sind, somit schneller und einfacher möglich sein. Zusätzlich soll die Implementierung unabhängig von bestimmten Gerätetypen oder –Herstellern sein, um die Wiederverwendbarkeit der entwickelten Services sicherzustellen. Das bedeutet, dass bspw. bei einem Gerätewechsel maximal eine Adapterkomponente, nicht aber die komplette Anwendung angepasst werden muss. Ziel des vorliegenden Beitrags ist die Identifizierung von Forschungslücken im Bereich der serviceorientierten Integration medizinischer Geräte. Dazu führen wir in die Thematik ein und beschreiben bzw. definieren grundlegende Begriffe sowie das theoretische Konzept der serviceorientierten Geräteintegration. Anschließend geben wir den State of the Art anhand einer Literaturanalyse wieder. Betrachtet werden dabei nicht nur Quellen aus dem medizinischen Bereich, so dass auch bereits existierende Lösungen aus anderen Domänen berücksichtigt werden können. Anhand der Analyse werden die Forschungslücken identifiziert und kategorisiert. Der Beitrag endet mit einer Zusammenfassung und einem Ausblick auf zukünftige Forschung. 2. Begriffliche Grundlagen 2.1. Medizinische Geräte Der Begriff des „Medizinisches Geräts“ ist nicht eindeutig definiert und wird je nach Kontext anders ausgelegt. In der EU-Richtlinie 93/42/EWG über Medizinprodukte (Medizinproduktrichtlinie) wird lediglich der Begriff des „Medizinischen Produkts“ spezifiziert, der weitreichend definiert ist und insbesondere auch nicht-technische Produkte beinhaltet. Darüber hinaus wird in DIN EN 60601 der Begriff des „medizinischen elektrischen Geräts“ umfassend definiert. Für eine bessere Verständlichkeit soll im Kontext dieses Beitrags folgende Definition gelten: Medizinisches Gerät: Medizinprodukt mit IT-Schnittstelle 120 Die IT-Schnittstelle kann dabei beliebiger Ausprägung sein (analog/digital, standardisiert/proprietär, etc.), z. B. eine serielle RS-232 Schnittstelle oder eine Netzwerkschnittstelle. Gemäß Artikel 9 der Richtlinie 93/42/EWG werden medizinische Produkte in die Klassen I, IIa, IIb und III eingestuft, welche potentielle Risiken der Produkte berücksichtigen. Die Einstufungsregelungen sind in Anhang IX der Richtlinie definiert. Je nach Klasse sind andere Anforderungen definiert, wobei Klasse III die kritischsten Produkte beinhaltet, so dass entsprechend strenge Regelungen für die Konformitätsbewertung gelten. Die Klassifizierung ist für die Thematik der serviceorientierten Integration medizinischer Geräte insofern interessant, als dass die Richtlinie in Anhang IX, Abschnitt II, Punkt 2.3 festlegt, dass „Software, die ein Produkt steuert oder dessen Anwendung beeinflusst, automatisch derselben Klasse zugerechnet wird wie das Produkt“. Für eine serviceorientierte Lösungsarchitektur ist daher zu prüfen, welche Softwarekomponenten spezielle rechtliche Anforderungen erfüllen müssen. 2.2. Interoperabilität im Kontext von medizinischen Geräten Der Begriff der Interoperabilität [14] [33] lässt sich zergliedern in • • • technische Interoperabilität (Verkabelung, Netzwerkprotokolle, etc.), syntaktische Interoperabilität (einheitliche Syntax z. B. bei elektronischen Rezepten) und semantische Interoperabilität (gleiches Verständnis von Daten, z. B. bei ICD3-kodierten Diagnosen). Im Kontext von medizinischen Geräten nach der Definition von Abschnitt 2.1, bezieht sich die technische Interoperabilität auf die IT-Schnittstelle, z. B. eine Netzwerkschnittstelle mit TCP/IPÜbertragungsprotokoll. Die syntaktische Interoperabilität ermöglicht den Austausch von Daten, z. B. durch das Vorhandensein eines einheitlichen Datenformats. Erst die semantische Interoperabilität ermöglicht den Austausch von interpretierbaren Informationen (für die Abgrenzung der Begriffe Daten und Information vgl. [24]) und damit Kommunikation [27]. Die potentiellen Vorteile interoperabler medizinischer Geräte sind vielfältig, z. B. eine bessere Behandlungsqualität, optimierte Workflows, Möglichkeiten zur Geräte-Fernwartung, etc. [25]. Daher überrascht es nicht, dass Initiativen wie z. B. IHE (Integrating the Healthcare Enterprise) versuchen, die Standardisierung auf allen Interoperabilitätsebenen voranzutreiben. Dennoch stellt sich die aktuelle Situation wie folgt dar: „Interoperability is an almost non-existent feature of medical devices.” [25] 2.3. Serviceorientierte Geräteintegration Die Idee der serviceorientierten Geräteintegration ist es, ein Gerät als Service zu kapseln, analog zu Enterprise Services einer serviceorientierten Architektur (SOA) [6], s. Abbildung 1. Ein Enterprise Service ist eine Softwarekomponente, die eine Business-Funktionalität auf hoher semantischer Ebene zur Verfügung stellt und deren Schnittstelle in standardisierter Form (z. B. mittels der Webservice Description Language – WSDL) spezifiziert ist [23]. Hohe semantische Ebene bedeutet in diesem Zusammenhang insbesondere, dass ein Service soweit selbstbeschreibend ist, dass er von anderen Komponenten dynamisch und lose gekoppelt verwendet werden kann und zudem ein gemeinsames Verständnis über die ausgetauschten Daten vorliegt. Beispielsweise könnte ein Enterprise Service eine Funktionalität zum Erstellen einer Rechnung anbieten. Ein Device Service hinge3 International Classification of Diseases 121 gen könnte z. B. in der medizinischen Domäne eine Funktionalität anbieten, die den aktuellen Blutdruck eines Patienten zurückgibt. Darauf aufbauend können höherwertige Business Services implementiert werden, die z. B. ein Patienten Monitoring umsetzen. Abbildung 1: Device Service (in Anlehnung an [6]) Der Vorteil des serviceorientierten Ansatzes ist, dass bei der Implementierung einer Funktionalität, die einen Device Service aufruft, die herstellerspezifische Schnittstelle des Geräts nicht bekannt sein muss. Diese wurde durch die serviceorientierte Integration bereits gekapselt. Der Aufruf des Device Services erfolgt durch ein standardisiertes Protokoll (z. B. SOAP) auf hoher semantischer Ebene (z. B. „getBloodPressure“). Dadurch wird es ermöglicht, die IT-Unterstützung für medizinische Prozesse auch auf Geräte zu erweitern. Auch institutionsübergreifende Szenarien sind denkbar. Zudem müssen Anwendungen, die ein bestimmtes Gerät nutzen, nach einem Gerätewechsel (anderer Hersteller oder anderes Modell) nicht angepasst werden. Lediglich die Komponente, die das Gerät integriert, muss ggf. modifiziert und bei Bedarf erweitert werden, wenn das Gerät neue Funktionalitäten anbietet. Die vorherige Service-Schnittstelle kann jedoch unverändert bzw. abwärtskompatibel bleiben. Ein weiterer Vorteil der Kapselung als Service ist, dass einem Gerät Funktionalitäten hinzugefügt werden können, die es ursprünglich nicht besitzt. Beispielsweise könnte eine Funktion „getLocation“ angeboten werden, die den aktuellen Standort des Geräts zurück gibt. Die Implementierung der Funktion könnte dabei auf ein separates Tracking&TracingSystem zurückgreifen. Das Erkennen und Bewerten solcher Nutzenpotentiale ist ein wesentlicher Beitrag, den die Wissenschaft in diesem Forschungsgebiet leisten muss. Das vorgestellte Konzept ist domänenunabhängig und auf hohem Abstraktionsgrad beschrieben. Direkte Rückschlüsse auf eine konkrete technische Umsetzung sind nicht möglich. Es ist daher zu analysieren, welche Anforderungen an eine Lösung zur serviceorientierten Integration medizinischer Geräte gestellt werden müssen, um Szenarien wie aus Abschnitt 1 realisieren zu können. Darauf aufbauend können potentielle Lösungsmöglichkeiten erarbeitet werden, welche die Anforderungen umsetzen. Dies hat im Sinne von [12] unter Berücksichtigung vorhandenen Wissens zu erfolgen. 3. Literaturanalyse Das Ziel der folgenden Literaturanalyse ist die Feststellung des Wissensstandes hinsichtlich Anforderungsanalyse und Lösungskonzepten zur Umsetzung der serviceorientierten Integration medizinischer Geräte. Die Auswahl der Literatur erfolgte in Anlehnung an Empfehlungen von Webster und Watson [34]. Es wurde eine Keywordsuche in den wichtigsten Journals und Konferenzen in den Bereichen Wirtschaftsinformatik, Informatik, Wirtschaftswissenschaften, Medizinische Informatik und Medizin durchgeführt. Zusätzliche Literatur stammte aus bereits bekannten Quellen bzw. Projekten. Insgesamt wurden 26 relevante Quellen identifiziert. Arbeiten aus niedrig gerankten Jour122 nals bzw. Konferenzen sowie uns nicht bekannte Projekte, die noch keine Beiträge veröffentlicht haben, bleiben daher weitgehend unberücksichtigt. Die Autoren beschränken sich auf eine Präsentation des State of the Art sowie der Forschungslücken. Der Fokus liegt dabei auf dem Bereich Krankenhaus, da im niedergelassenen Bereich serviceorientierte Architekturen überdimensioniert erscheinen bzw. die Wahrscheinlichkeit zeitnaher technischer Realisierungen in Deutschland als sehr gering einzuschätzen ist. Ähnliche Fragestellungen können sich jedoch im Bereich Telemedizin sowie in institutionsübergreifenden Szenarien ergeben. 3.1. Schwerpunkte Insbesondere Publikationen aus gleichen oder verwandten Projekten überschneiden sich inhaltlich, fokussieren aber jeweils unterschiedliche Aspekte. Tabelle 1 stellt die Themenschwerpunkte aller identifizierten Quellen in der Übersicht dar (absteigend sortiert nach Häufigkeit). Aus den Anwendungsszenarien und Architekturbeschreibungen lassen sich verschiedene Integrationskonzepte und Integrationstechnologien extrahieren. Diese sind Thema der Abschnitte 3.2 und 3.3. Die Ergebnisse der weiteren Schwerpunkte lassen sich aufgrund der geringen Anzahl an Quellen bzw. der Verschiedenartigkeit der Konzepte nicht zu einem Konsens zusammenführen, werden aber bei der Identifizierung der Forschungslücken in Abschnitt 3.4 berücksichtigt. Tabelle 1: Themenschwerpunkte Themenschwerpunkt Proof of Concept / Anwendungsszenario Architekturbeschreibung Orchestrierung / Prozess Management DPWS (Devices Profile for Web Services) Prozessoptimierung Semantik-Technologien / Context-Awareness Technologieanalyse Interface Design Quality of Service Simulation Quellen [32], [7], [5], [15], [16], [28], [4] [6], [21], [30], [3] [2], [18], [13], [20] [19], [36], [35] [9], [31] [11], [1] [3], [17] [10] [8] [22] 3.2. Integrationskonzepte Die Mehrzahl der gefundenen Quellen ist technisch geprägt. Die Frage nach möglichen technischen Integrationsformen wird daher sehr umfangreich behandelt. Im Wesentlichen lassen sich drei Konzepte identifizieren, um die Funktionalität eines Gerätes als Service zu exportieren. Diese sind in Abbildung 2 darstellt. Bei der direkten Integration wird der Service durch das Gerät zur Verfügung gestellt. Dazu ist es notwendig, dass das Gerät über eine Netzwerkschnittstelle verfügt. Zudem muss die Möglichkeit bestehen, entsprechende Softwarekomponenten (z. B. DPWS4, s. Abschnitt 3.3) auf dem Gerät zu installieren. Eine Vielzahl der gefundenen Quellen verwirklicht die Geräteintegration auf diese Weise, beispielhaft sei [3] erwähnt. Ist die Möglichkeit der direkten Integration nicht möglich, da z. B. nur eine RS-232 Schnittstelle vorhanden ist, kann ein programmierbarer Adapter eingesetzt werden, der an die proprietäre Schnittstelle angeschlossen wird und den Service bereitstellt. Dies wurde z. B. in [9] mit Hilfe eines XPORT-Adapters umgesetzt. Eine weitere Möglichkeit ergibt sich, wenn Geräte an einen Server angeschlossen werden, auf dem die zugehörigen Gerätetreiber und zudem ein Web Application Server für die Bereitstellung der Services installiert sind. Diese Möglichkeit wurde u. a. in [32] umgesetzt. 4 Devices Profile for Web Services 123 Direkte Integration Adapter-Integration Abbildung 2: Integrationskonzepte (eigene Darstellung) Server-Integration 3.3. Integrationstechnologien Zur Umsetzung der im vorherigen Kapitel vorgestellten Integrationskonzepte werden in den Beiträgen folgende Technologien verwendet: OSGi, UPnP5, DPWS, Webservices und gSOAP. Desweiteren werden HAVi6 und JINI als weitere mögliche Technologien genannt, aber zugunsten anderer Technologien nicht eingesetzt. Eine Zuordnung der Technologien zu den Quellen findet sich in Tabelle 2. Dabei ist anzumerken, dass die Technologien nicht disjunkt sind. DPWS basiert sowohl auf UPnP als auch auf Webservice-Technologien und macht je nach Implementierung zudem Gebrauch von gSOAP. Quellen, die DPWS verwenden, werden jedoch in der Tabelle nicht zusätzlich bei UPnP und gSOAP gelistet, um die Abgrenzung darstellen zu können. Zudem ist es möglich, dass verschiedene Technologien in Kombination auftreten, z. B. UPnP und OSGi. In der Tabelle erfolgt die Zuordnung in solchen Fällen anhand der (für die jeweilige Lösungsarchitektur) dominierenden Technologie. Die Tabelle dient lediglich der übersichtlichen Darstellung der verwendeten Technologien. Eine Aussage über die Güte einer Technologie kann aus der Anzahl der zugehörigen Quellen nicht abgeleitet werden. Tabelle 2: Integrationstechnologien Technologie OSGi UPnP DPWS Webservice gSOAP Quellen [7], [11] [17], [2], [10], [1] [5], [8], [15], [16], [18], [28], [3], [4], [19], [21], [31], [36], [35], [30], [22], [13] [32], [20] [9] 3.4. Identifizierte Forschungslücken In Tabelle 3 finden sich zusammenfassend die identifizierten Forschungslücken auf Anforderungsebene, technischer Ebene und Methodikebene. Diese werden in den nächsten Abschnitten erläutert. Dabei besteht zwischen den Ebenen eine starke Abhängigkeit. Insbesondere hängen sowohl die technische als auch die Methodikebene von den Anforderungen ab. Beispielsweise zieht die vernachlässigte Betrachtung der Sicherheit auf Anforderungsebene auch neue Fragestellungen auf technischer Ebene nach sich. Da eine umfassende Anforderungsermittlung im Kontext der serviceorientierten Integration medizinischer Geräte in der Literatur nicht gefunden werden konnte, können zukünftig insb. im Bereich der technischen und Methodikebene neue Fragestellungen entstehen, die mit dem Wissensstand der vorliegenden Arbeit nicht identifiziert werden konnten. 5 6 Universal Plug and Play Home Audio Video Interoperability 124 Tabelle 3: Identifizierte Forschungslücken Ebene Anforderungsebene Technische Ebene Methodikebene Forschungslücken Gesetzliche Anforderungen Lokalität / Mobilität Geräte als Ressource Sicherheit Kriterienkatalog Integrationskonzepte/-Technologien Performanz Prozesssteuerung Sicherheitsmechanismen Service-Granularität Quality of Service Servicebeschreibung Prozessmodellierung 3.4.1. Anforderungsebene Bei bisherigen Arbeiten blieben die Besonderheiten der serviceorientierten Integration medizinischer Geräte weitgehend unberücksichtigt. Nach Meinung der Autoren sind dies gesetzliche Anforderungen, Lokalität/Mobilität, Geräte als Ressource und Sicherheit. Da Fehlfunktionen bei medizinischen Geräten lebensbedrohliche Folgen nach sich ziehen können, werden durch den Gesetzgeber entsprechende Anforderungen vorgegeben. Diese manifestieren sich in Deutschland im Medizinproduktegesetz und den zugehörigen Verordnungen, die die EU-Richtlinien 90/385/EWG, 93/42/EWG und 98/79/EG umsetzen. Die daraus resultierenden Anforderungen an eine Integrationslösung müssen zwingend erhoben und umgesetzt werden. Dieser Aspekt wurde in der gefundenen Literatur bisher nicht aufgegriffen. Bzgl. der allgemeinen Sicherheitsanforderungen ist zudem darauf zu achten, dass zum einen die Patientendaten geschützt werden und zum anderen, dass nur autorisierte Zugriffe auf die Geräte erfolgen können. Im Krankenhaus kann dies z. B. durch Verwendung von elektronischen Arztausweisen (wie dem Heilberufsausweis in Deutschland) oder multifunktionalen Betriebsausweisen erfolgen [26]. Eine Besonderheit von Geräte-Services ist im Gegensatz zu reinen Software-Services die Lokalität bzw. Mobilität. Bei einem Software-Service ist es unerheblich, an welchem Ort sich der Server befindet, auf dem der Service ausgeführt wird, solange die zugehörigen SLAs und Sicherheitsanforderungen eingehalten werden. Auch kann ein Service für eine bessere Lastverteilung auf mehreren Servern gleichzeitig implementiert sein. Die Wahl des Servers erfolgt zur Laufzeit. Bei GeräteServices verhält sich dies anders. In der Regel müssen bei Ausführung des Services der Patient sowie ggf. auch der Arzt anwesend und je nach Gerät korrekt positioniert sein. Die Ausführung eines Geräte-Services bezieht sich daher immer auf ein bestimmtes Gerät zu einem bestimmten Zeitpunkt in Zusammenhang mit einem bestimmten Patienten. Insbesondere bei medizinischen Geräten, die den Gesundheitszustand eines Patienten negativ beeinflussen können, ist unbedingt zu verhindern, dass ein Gerät mit dem Kontext eines falschen Patienten initialisiert wird. Verstärkt wird dieser Umstand durch die Mobilität mancher Geräte. Im Gegensatz zu [20] ist hierbei für die Prozesssteuerung aber nicht nur die Lokalität, sondern der Gesamtkontext (Lokalität, Patient mit Zustand und Behandlungsstand sowie ggf. Arzt) relevant. Ansätze hierzu sind in [11] und [1] zu finden. Eine weitere Besonderheit ist, dass ein medizinisches Gerät eine Ressource ist. Diese kann bestimmte Zustände annehmen, wie z. B. reserviert, in Betrieb, frei, defekt, in Wartung, etc. Dies hat direkte Auswirkungen auf die zugehörigen Services. Unter diesem Aspekt ist auch die Lokalität erneut ein wichtiger Aspekt. Zum einen ist das Auffinden eines benötigten mobilen Geräts eine wichtige Funktionalität, die berücksichtigt werden sollte, und zum anderen ist bei der Reservierung einer Ressource darauf zu achten, dass möglichst die nächstgelegene Ressource gewählt wird, um 125 die Laufwege für Personal und Patient kurz zu halten. Durch die serviceorientierte Integration der Geräte kann das Ressourcenmanagement somit dynamischer und flexibler gestaltet werden. 3.4.2. Technische Ebene Auf der technischen Ebene bleibt unklar, welche der in Abschnitt 3.2 und 3.3 vorgestellten Integrationskonzepte bzw. –Technologien in welchem Kontext am geeignetsten sind. Beispielhaft sei hierbei der Aspekt der Performance genannt, die je nach Konzept bzw. Technologie stark variieren könnte. Im Kontext medizinischer Geräte könnte die Wahl der Integrationsform zudem Auswirkungen auf die Tragweite der Geräte-Zertifizierung haben. So wäre z. B. denkbar, dass direkte Integration eine Neu-Zertifizierung des Gerätes nach sich ziehen würde, während dies bei den beiden anderen Optionen nicht nötig ist. Anzustreben ist daher ein Kriterienkatalog als Hilfestellung zur Auswahl des Integrationskonzeptes für die verschiedensten Kategorien medizinischer Geräte. 3.4.3. Methodikebene Im Bereich der serviceorientierten Architekturen gibt es eine Vielzahl an methodischen Fragestellungen, z. B. die Ableitung von Services aus Geschäftsprozessen oder die serviceorientierte Modellierung. Im Kontext der serviceorientierten Geräteintegration ist zu klären, inwiefern vorhandene Methoden auf Geräte-Services übertragen werden können. Ein Aspekt hierbei ist die ServiceGranularität und damit die Problemstellung, ob jede Funktionalität eines Gerätes einzeln als Service zur Verfügung gestellt werden sollte oder ob diese bereits als höherwertigere Services gekapselt werden. Auch ist unklar, ob vorhandene Methoden und Mechanismen zur Beschreibung und Sicherstellung des Quality of Service im Kontext medizinischer Geräte ausreichend sind. [8] greift diese Thematik auf, allerdings im Kontext von Multimedia-Anwendungen. Durch die Betrachtung von Geräten als Ressource ergeben sich zudem neue Herausforderungen im Bereich der Servicebeschreibung und der Prozessmodellierung. Es ist zu prüfen, ob existierende Methoden zur Servicebeschreibung ausreichen, um Aspekte wie z. B. mögliche Gerätezustände, Lokalität, Lebensdauer, etc. abzubilden. Hinsichtlich der Prozessmodellierung ist der Umstand neu, dass (im Gegensatz zu Software-Services) Geräte-Services für eine exklusive Nutzung reserviert werden müssen. Hierbei wird die Wahl des Services nicht automatisiert vorgenommen, der Benutzer muss in der Regel manuell das konkrete Gerät auswählen, das am Prozess beteiligt sein soll. Bei stationären Geräten kann diese Auswahl auch automatisiert erfolgen, wenn einem Arbeitsplatz ein bestimmtes Gerät fest zugeordnet ist oder das örtlich nächst gelegene Gerät gewählt werden soll. Alternativ sind RFID-Szenarien denkbar, so dass das Gerät den Patienten und seinen Kontext erkennt. Diese Besonderheiten werden in den Beiträgen, die Orchestrierung und Prozess Management thematisieren ([2], [18], [13], [20]), nur ungenügend adressiert. 4. Zusammenfassung und Ausblick Anhand einer Literaturanalyse wurde gezeigt, dass insbesondere im medizinischen Kontext die serviceorientierte Integration von Geräten noch kaum erforscht ist. In anderen Domänen, wie z. B. der industriellen Automatisierung, ist die Forschung bereits weiter fortgeschritten, jedoch gelten viele der identifizierten Forschungslücken auch für diese Bereiche. Zudem ist genau zu prüfen, inwiefern Konzepte, die nicht speziell für die medizinische Domäne entwickelt wurden, übertragbar sind. Voraussetzung dafür ist eine umfassende Anforderungsanalyse, die aber in existierenden Beiträgen nicht gefunden werden konnte. Die Erstellung einer solchen Anforderungsanalyse ist daher nach der Zusammenstellung des State of the Art der nächste logische Schritt und Basis für unsere weitere Forschung in diesem Gebiet. 126 5. Literaturverzeichnis [1] ALI, S.; KIEFER, S., Semantic Medical Devices Space: An Infrastructure for the Interoperability of Ambient Intelligent Medical Devices, Ioannina - Epirus, Greece: 2006. [2] BOBEK, A. et al., Enabling workflow in UPnP networks, Industrial Informatics, 2005. INDIN '05. 2005 3rd IEEE International Conference on, 2005, S. 166-171. [3] BOHN, H.; BOBEK, A; GOLATOWSKI, F., SIRENA - Service Infrastructure for Real-time Embedded Networked Devices: A service oriented framework for different domains, Networking, International Conference on Systems and International Conference on Mobile Communications and Learning Technologies, 2006. ICN/ICONS/MCL 2006. International Conference on, 2006, S. 43. [4] CACHAPA, D. et al., An approach for integrating real and virtual production automation devices applying the service-oriented architecture paradigm, Emerging Technologies & Factory Automation, 2007. ETFA. IEEE Conference on, 2007, S. 309-314. [5] COLOMBO, A. et al., Service-oriented architectures for collaborative automation, Industrial Electronics Society, 2005. IECON 2005. 31st Annual Conference of IEEE, 2005, S. 6 pp. [6] DEUGD, S. D. et al., SODA: Service Oriented Device Architecture, in: IEEE Pervasive Computing, vol. 5, 2006, S. 94-96, c3. [7] DITZE, M. et al., Service-based access to distributed embedded devices through the open service gateway, Industrial Informatics, 2004. INDIN '04. 2004 2nd IEEE International Conference on, 2004, S. 493-498. [8] DITZE, M. et al., Quality of Service and Proactive Content Replication in UPnP based A/V Environments, Innsbruck: 2005, S. 729-734. [9] GILART-IGLESIAS, V. et al., Normalization of Industrial Machinery with Embedded Devices and SOA, Emerging Technologies and Factory Automation, 2006. ETFA '06. IEEE Conference on, 2006, S. 173-180. [10] GLASCHICK, R.;. OESTERDIECKHOFF, B.; LOESER, C., Service oriented interface design for embedded devices, Emerging Technologies and Factory Automation, 2005. ETFA 2005. 10th IEEE Conference on, 2005, S. 8 pp. [11] GOUVAS, P.; BOURAS, T.; MENTZAS, G., An OSGi-Based Semantic Service-Oriented Device Architecture, 2007. [12] HEVNER, A. R. et al., Design Science in Information Systems Research, in: MIS Quarterly, vol. 28, 2004. [13] ILLNER, S. et al., Model-based management of embedded service systems-an applied approach, Advanced Information Networking and Applications, 2006. AINA 2006. 20th International Conference on, 2006, S. 5 pp. [14] JÄHN, K.; ECKHARD, N., e-Health, Springer, Berlin, 2004. [15] JAMMES, F.; SMIT, H., Service-oriented paradigms in industrial automation, Industrial Informatics, IEEE Transactions on, vol. 1, 2005, S. 62-70. [16] JAMMES, F.; SMIT, H., Service-oriented architectures for devices - the SIRENA view,” Industrial Informatics, 2005. INDIN '05. 2005 3rd IEEE International Conference on, 2005, S. 140-147. [17] JAMMES, F. et al., Intelligent device networking in industrial automation, Industrial Informatics, 2004. INDIN '04. 2004 2nd IEEE International Conference on, 2004, S. 449-456. [18] JAMMES, F. et al., Orchestration of service-oriented manufacturing processes,” Emerging Technologies and Factory Automation, 2005. ETFA 2005. 10th IEEE Conference on, 2005, S. 8 pp. [19] JAMMES, F.; MENSCH, A.; SMIT, H., Service-Oriented Device Communications Using the Devices Profile for Web services, Advanced Information Networking and Applications Workshops, 2007, AINAW '07. 21st International Conference on, 2007, S. 947-955. 127 [20] KAMNENG, M. L. M. et al., Prozessintegration mobiler Landmaschinen mittels automatisch erzeugter BPELProzesse, in: Wirtschaftsinformatik, vol. 49, 2007, S. 289-294. [21] KARNOUSKOS, S. et al., Integration of SOA-ready networked embedded devices in enterprise systems via a cross-layered web service infrastructure, Emerging Technologies & Factory Automation, 2007. ETFA. IEEE Conference on, 2007, S. 293-300. [22] KARNOUSKOS, S.; TARIQ, M. M. J., An Agent-Based Simulation of SOA-Ready Devices, Computer Modeling and Simulation, 2008. UKSIM 2008. Tenth International Conference on, 2008, S. 330-335. [23] KRAFZIG, D.; BANKE, K.; SLAMA, D., Enterprise SOA: Service Oriented Architecture Best Practices, Prentice Hall International, 2004. [24] KRCMAR, H., Informationsmanagement, Springer, Berlin, 2004. [25] LESH, K. et al., Medical Device Interoperability-Assessing the Environment, High Confidence Medical Devices, Software, and Systems and Medical Device Plug-and-Play Interoperability, 2007. HCMDSS-MDPnP. Joint Workshop on, 2007, S. 3-12. [26] MAURO, C. et al., A Proposed Solution for Managing Doctor’s Smart Cards in Hospitals Using a Single Sign-On Central Architecture, Proceedings of the Hawaii International Conference on System Sciences (HICSS 41), Big Island, Hawaii: 2008. [27] MERRIAM-WEBSTER, “Merriam-Webster's Medical Dictionary”; http://dictionary.reference.com/browse/communication. [28] OESTERDIECKHOFF, B. et al., Integrative approach of Web services and universal plug and play within an AV scenario, Industrial Informatics, 2005. INDIN '05. 2005 3rd IEEE International Conference on, 2005, S. 123-128. [29] SCHWEIGER, A. et al., Toward Seamless Healthcare with Software Agents, in: Communications of the Association for Information Systems, vol. 19, 2007, S. 692-709. [30] DE SOUZA, L. M. S. et al., SOCRADES: A Web Service based Shop Floor Integration Infrastructure, 2008. [31] SPIESS, P.; KARNOUSKOS, S., Maximizing the Business Value of Networked Embedded Systems through Process-Level Integration into Enterprise Software, Pervasive Computing and Applications, 2007. ICPCA 2007. 2nd International Conference on, 2007, S. 536-541. [32] STRÄHLE, M. et al., Towards a Service-Oriented Architecture for Interconnecting Medical Devices and Applications, High Confidence Medical Devices, Software, and Systems and Medical Device Plug-and-Play Interoperability, 2007. HCMDSS-MDPnP. Joint Workshop on, 2007, S. 153-155. [33] SUNYAEV, A. et al., Integrationsarchitekturen für das Krankenhaus - Status quo und Zukunftsperspektiven, in: Information Management & Consulting, vol. 21, 2006, S. 28-35. [34] WEBSTER, J.; WATSON, R. T., Analyzing the Past to Prepare for the Future: Writing a Literature Review, in: MIS Quarterly, vol. 26, 2002. [35] ZEEB, E. et al., Lessons learned from implementing the Devices Profile for Web Services, Digital EcoSystems and Technologies Conference, 2007. DEST '07. Inaugural IEEE-IES, 2007, S. 229-232. [36] ZEEB, E. et al., Service-Oriented Architectures for Embedded Systems Using Devices Profile for Web Services, Advanced Information Networking and Applications Workshops, 2007, AINAW '07. 21st International Conference on, 2007, S. 956-963. 128 EIN ALLGEMEINER ANSATZ ZUR ABLEITUNG VON ABHÄNGIGKEITSANALYSEN AUF UNTERNEHMENSARCHITEKTURMODELLEN Stephan Kurpjuweit, Stephan Aier1 Kurzfassung Der Nutzen von Unternehmensarchitekturmodellen liegt unter anderem in der Bereitstellung bedarfsgerechter Abhängigkeitsanalysen. Die praktische Herausforderung besteht darin, beliebige Analysen auf Instanzen von vorab nicht vollständig bekannten, unternehmensspezifischen Architekturmetamodellen durchführen zu können. Der Beitrag entwirft darum eine allgemeine und formale Lösung dieses Problems, welche sich für die Implementierung in Unternehmensarchitekturmanagement-Werkzeugen eignet. 1. Einleitung Nach ANSI/IEEE Std 1471-2000 ist Architektur definiert als ”the fundamental organization of a system, embodied in its components, their relationships to each other and the environment” [8]. Die Unternehmensarchitektur ist die fundamentale Strukturierung einer Organisation (Unternehmen, öffentliche Institution etc.) und bildet die Gestaltungsobjekte der Organisation und deren Beziehungen in Modellen ab. Die Bandbreite der Gestaltungsobjekte reicht dabei von der Strategie, über die Aufbau- und Ablauforganisation bis hin zu Elementen der Daten- und Softwarearchitektur sowie der technischen Infrastruktur [3, 13]. Aufbauend auf der Dokumentation der Strukturen einer Organisation können Unternehmensarchitekturmodelle nach [10] in sehr unterschiedlichen Szenarien (z. B. Produkteinführung, IT-Konsolidierung, Mergers&Acquisitions) genutzt werden, in denen die wechselseitigen Abhängigkeiten der Gestaltungsobjekte von Bedeutung sind. Typische Fragen in diesem Zusammenhang sind: „Welche Produkte werden durch welche Prozesse unter Zuhilfenahme welcher Applikationen erstellt?“, „Welche Dienstleistungen sind betroffen bei Ausfall eines Serverclusters“ oder „Wie ist der Beitrag einzelner Geschäftseinheiten oder Geschäftsprozesse zu den Unternehmenszielen?“. Zur Beantwortung dieser Fragen werden die betreffenden Gestaltungsobjekte gefiltert, in Beziehung gesetzt und übersichtlich z. B. als Matrix dargestellt [2]. Die praktische Herausforderung besteht dann darin, genau die Abhängigkeitsanalysen zur Verfügung zu stellen, die für die Stakeholder den größten Nutzen erzeugen. Die Erfahrung aus Praxisprojekten zeigt jedoch drei Dinge: (1) Statt starrer Standardauswertungen wünschen sich die Stakeholder flexible „Navigationsfunktionalitäten“ zur interaktiven Erschließung der strukturellen Zusam1 Universität St. Gallen, Müller-Friedberg-Strasse 8, CH-9000 St. Gallen 129 menhänge in der Unternehmensarchitektur. (2) Nicht für jede Situation respektive jede Organisation kann das gleiche Metamodell verwendet werden. (3) Existierende Ansätze und Werkzeuge zur Modellierung und Analyse der Unternehmensarchitektur basieren auf mehr oder weniger starren Metamodellstrukturen. Komplexere Abhängigkeitsanalysen sind auf dieser Struktur meist „fest verdrahtet“ und können nur sehr begrenzt und mit hohem Aufwand angepasst werden. Dies führt zu der Anforderung an zukünftige Werkzeuge, flexible Abhängigkeitsanalysen generisch auf Basis eines flexiblen Metamodells zu unterstützen. Dabei sind eine Reihe von Herausforderungen, wie inkonsistente Semantiken von Hierarchien unterschiedlicher Gestaltungsobjekte, verschiedene Formen der Abhängigkeiten oder transitive Abhängigkeiten über eine Vielzahl von Gestaltungsobjekten hinweg, zu berücksichtigen. Das Ziel dieses Beitrags ist es, basierend auf bestehenden relationalen Ansätzen eine allgemeine formale Lösung für die Ableitung von Abhängigkeitsanalysen zu entwickeln. Die Formalisierung unserer Lösung ist dabei notwendig, um sie eindeutig zu spezifizieren und in entsprechenden Werkzeugen implementieren zu können. Der Ansatz geht dabei von möglichst wenigen Grundannahmen aus, um die Anwendbarkeit mit möglichst vielen Ansätzen zur Modellierung der Unternehmensarchitektur sicherzustellen (Abschnitt 2). Wir beschränken uns in der Darstellung auf zweidimensionale Abhängigkeitsanalysen, welche die Abhängigkeiten zwischen je zwei Typen von Gestaltungsobjekten analysieren und die Basis darstellen für komplexere Abhängigkeitsanalysen (Abschnitt 3). Dabei berücksichtigen wir Anforderungen, die sich in Praxisfallstudien [1] als relevant herausgestellt haben: reflexive Beziehungsklassen (Abschnitt 4), hierarchische Verfeinerung (Abschnitt 5) sowie die aggregierte Betrachtung von Abhängigkeiten (Abschnitt 6). Die Effektivität der Lösung soll durch Praxisbeispiele belegt werden. 2. Metamodell Dem Ansatz liegt folgende Annahme zugrunde: Unternehmensarchitekturen werden als Modelle in einer Modellierungssprache beschrieben. Ein Metamodell ist ein Modell einer Modellierungssprache [6, 9, 12]. Es spezifiziert die verfügbaren Arten von Gestaltungsobjekten, die Beziehungen zwischen den Gestaltungsobjekten sowie Konsistenzbedingungen für die Verwendung von Gestaltungsobjekten und Beziehungen [11]. In Anlehnung an [5] definieren wir ein Metamodell (M) als ein 3-Tupel: M = (C , T , R) , wobei gilt: • C ist eine Menge von Gestaltungsklassen (kurz: Klassen). • T ist eine Menge von Beziehungstypen (kurz: Typen). Für jeden Typ t ∈ T existiert ein Umkehrtyp t −1 ∈ T mit (t −1 ) −1 = t . • R ⊆ C × C × T ist eine Menge von Beziehungsklassen zwischen Gestaltungsklassen. Ein Element (c1 , c2 , t ) ∈ R ist dabei eine Beziehungsklasse des Typs t zwischen den Klassen c1 und c 2 . Die Granularität der Beziehungstypen ist beliebig: In den Extremfällen existiert in dem Metamodell nur ein Typ für alle Beziehungsklassen oder ein eigener Typ für jede Beziehungsklasse. [5] enthält ein Beispiel mit einem relativ feingranularen System an Beziehungstypen. In all unseren Praxisfallstudien waren die in Tabelle 1 dargestellten drei Beziehungstypen Assoziation, Aggregation und Generalisierung mit ihren jeweiligen Umkehrtypen ausreichend, wobei Assoziationen aussagekräftige Namen erhielten. 130 Tabelle 1: Beziehungstypen t ∈T Assoziation Aggregation Generalisierung t −1 ∈ T Assoziation Teil-Ganzes-Beziehung Ganzes-Teil-Beziehung Generalisierung Spezialisierung Assoziation Ganzes-Teil-Beziehung Teil-Ganzes-Beziehung Spezialisierung Generalisierung 3. Zweidimensionale Abhängigkeitsanalysen (2dA) Zahlreiche Strukturfragen zur Analyse der Unternehmensarchitektur sind vom Typ „Wie ist der Zusammenhang zwischen den Instanzen der Gestaltungsklassen a und b ?“ (z. B. „Durch welche Applikationen werden die einzelnen Geschäftsprozesse unterstützt?“). Im einfachsten Fall sind die beiden Klassen a, b ∈ C im Metamodell direkt durch eine Beziehungsklasse r verbunden. In diesem Fall kann eine 2dA unmittelbar aus den Instanzen der Beziehungsklasse r abgeleitet und beispielsweise als Matrix dargestellt werden (siehe Abbildung 1). b1 b2 a1 X X a2 X a b1 b2 b3 b4 a1 a2 a3 r b a (a) Metamodell r a3 b3 b4 X X X X b (c) zweidimensionale Abhängigkeitsanalyse (als Matrix) (b) Modell Abbildung 1: Beispiel einer einfachen zweidimensionalen Abhängigkeitsanalyse Sind zwei Klassen c1 , c 2 ∈ C nicht direkt durch eine Beziehungsklasse verbunden, muss eine transitive Beziehungsklasse aus den Beziehungsklassen des Metamodells abgeleitet werden. [5] hat hierzu Vorarbeiten geleistet, die in diesem Abschnitt aufgezeigt und erweitert werden. Wir definieren zunächst einen Kompositionsoperator für Beziehungstypen ⊗ : T * × T * → T * . Nachdem die Komposition zweier Beziehungstypen t1 , t 2 ∈ T einen Beziehungstyp t3 ∉ T ergeben kann, der nicht in dem Metamodell verwendet wird, definiert T * eine Erweiterung von T um alle Beziehungstypen, die bei der Komposition von Beziehungstypen aus T * resultieren können. Tabelle 2 spezifiziert einen einfachen Kompositionsoperator für das Typsystem aus Tabelle 1, welches wir um den Typ „undefiniert“ ergänzen. Es besteht die Möglichkeit, den Kompositionsoperator zu detaillieren (z. B. indem die Kombination aus Aggregation und Generalisierung zu einer Beziehung des Typs „Verfeinerung“ komponiert wird.). Tabelle 2: Kompositionsoperator für Beziehungstypen t1 Assoziation * Teil-Ganzes-Beziehung Ganzes-Teil-Beziehung Generalisierung Spezialisierung t2 * Assoziation Teil-Ganzes-Beziehung Ganzes-Teil-Beziehung Generalisierung Spezialisierung sonst t1 ⊗ t 2 Assoziation Assoziation Teil-Ganzes-Beziehung Ganzes-Teil-Beziehung Generalisierung Spezialisierung undefiniert Legende: „*“ steht als Platzhalter für alle Typen, „sonst“ steht als Platzhalter für alle nicht aufgeführten Paarungen 131 Wir definieren rekursiv die Mengen der 2-Schritt Beziehungsklassen R 2 , der n-Schritt Beziehungsklassen R n und die transitive Hülle R * der Menge der Beziehungsklassen2: 1a) ∀c1 , c2 , c3 ∈ C∀t1 , t 2 ∈ T : (c1 ≠ c2 ) ∧ (c2 ≠ c3 ) ∧ (c1 , c2 , t1 ) ∈ R ∧ (c2 , c3 , t 2 ) ∈ R ⇒ (c1 , c3 , t1 ⊗ t 2 ) ∈ R 2 1b) ∀c1 , c2 , c3 ∈ C∀t1 , t 2 ∈ T : (c1 ≠ c2 ) ∧ (c2 ≠ c3 ) ∧ (c1 , c2 , t1 ) ∈ R ∧ (c3 , c2 , t 2 ) ∈ R ⇒ (c1 , c3 , t1 ⊗ t 2−1 ) ∈ R 2 2a) ∀c1 , cn−1 , c n ∈ C∀t1 , t 2 ∈ T * : (c1 ≠ cn−1 ) ∧ (cn−1 ≠ cn ) ∧ (c1 , cn−1 , t1 ) ∈ R n−1 ∧ (cn−1 , cn , t 2 ) ∈ R ⇒ (c1 , cn , t1 ⊗ t 2 ) ∈ R n 2b) ∀c1 , cn−1 , c n ∈ C∀t1 , t 2 ∈ T * : (c1 ≠ cn−1 ) ∧ (cn−1 ≠ cn ) ∧ (c1 , cn−1 , t1 ) ∈ R n−1 ∧ (cn , cn−1 , t 2 ) ∈ R ⇒ (c1 , c n , t1 ⊗ t 2−1 ) ∈ R n ∞ 3) R* = U R n n =1 Damit die Definitionen von R 2 , R n und R * eindeutig sind, muss der Kompositionsoperator ⊗ assoziativ sein, d. h. ∀t1 , t 2 , t3 ∈ T * : (t1 ⊗ t 2 ) × t3 = t1 ⊗ (t 2 × t3 ) (B1). Abbildung 2 veranschaulicht die Ableitung von 2-Schritt Beziehungsklassen und die Notwendigkeit der Formel (1b)3: Da die Beziehungsklassen gerichtet sind, wird in dem dargestellten Beispiel durch Formel (1a) keine transitive Beziehungsklasse zwischen c1 und c3 abgeleitet, obwohl eine 2dA zwischen diesen Klassen möglich ist. Formel (2b) begründet sich mit dem gleichen Argument. Für den Kompositionsoperator ergibt sich als weitere Bedingung: ∀t1 , t 2 ∈ T * : (t 2 ⊗ t1−1 ) = (t1 ⊗ t 2−1 ) −1 (B2). Die Bedingungen (B1) und (B2) können für das in den Tabellen 1 und 2 spezifizierte Typsystem einfach durch Wertetabellen nachgewiesen werden. c2 t1 c1 t2 t1 ⊗ t2-1 t2 ⊗ t1-1 c3 Abbildung 2: Ableitung von 2-Schritt Beziehungsklassen Auf Basis des Kompositionsoperators für Beziehungstypen kann nun der Kompositionsoperator für Beziehungsklassen: ⊗ R : R * × R * → R * definiert werden. Der Projektionsoperator π i ergibt dabei das i-te Element jedes Tupels in R * : ⎧ (π 1(r1 ),π 2(r2 ),π 3(r1 ) ⊗π 3(r2 )), falls π 1(r2 ) =π 2(r1 ) ∧π 1(r1 ) ≠π 2(r1 ) ∧π 1(r2 ) ≠π 2(r2 ) ⎪ 4) r1 ⊗ R r2 = ⎨(π 1(r1 ),π 1(r2 ),π 3(r1 ) ⊗π 3(r2 ) −1 ), falls π 2(r2 ) =π 2(r1 ) ∧π 1(r1 ) ≠π 2(r1 ) ∧π 1(r2 ) ≠π 2(r2 ) ⎪ undefiniert sonst ⎩ c ∈ C , t ∈ T * (d. h. Beziehungs2 klassen einer Gestaltungsklasse zu sich selbst) aufgrund ihrer speziellen Semantik aus den Definitionen von R , R n und R * aus. Sie werden in Abschnitt X gesondert behandelt. 2 Als Ergänzung zu [5] schließen wir reflexive Kanten der Form (c, c, t ) ∈ R für ein 3 Die Formeln (1b) und (2b) sind eine weitere Ergänzung zu [5]. Durch diese Formeln begründet sich auch das Konzept der Umkehrtypen in der Definition des Metamodells. 132 Die bisherige Betrachtung fand auf der Ebene des Metamodells statt. Zur Ableitung einer Abhängigkeitsanalyse muss jedoch die Modellebene betrachtet werden. Wiederum in Anlehnung an [5] definieren wir: Ein Modell (A) ist definiert als ein 4-Tupel A = ( E , T *, Q, Fc ) mit: • E ist eine Menge von Gestaltungsobjekten (Instanzen von Gestaltungsklassen, kurz: Objekte). • T * ist eine Menge von Beziehungstypen. (Dabei handelt es sich um die Beziehungstypen aus dem Metamodell.) • Q ⊆ E × E × T * Ist eine Menge von Beziehungen zwischen den Gestaltungsobjekten. • Fc : E → C ist eine Funktion, die jedes Gestaltungsobjekt einer Gestaltungsklasse zuordnet. Ec = {e ∈ E | Fc (e) = c} ist die Menge aller Objekte der Klasse c ∈ C . Ein Modell A = ( E , T *, Q, Fc ) entspricht einem Metamodell M = (C , T , R ) genau dann, wenn ∀t ∈ T *∀e1 , e2 ∈ E : (e1 , e2 , t ) ∈ Q ⇒ ( Fc (e1 ), Fc (e2 ), t ) ∈ R . Analog zum Metamodell lässt sich die transitive Hülle Q * der Menge der Beziehungen rekursiv über 2-Schritt Beziehungen Q 2 und nSchritt Beziehungen Q n definieren. Aus Platzgründen wird nur die Formel für Q 2 angegeben, Q n ergibt sich analog zu den Formel 2a und b. 5a) ∀e1 , e2 , e3 ∈ E∀t1 , t 2 ∈ T * : (e1 ≠ e2 ) ∧ (e2 ≠ e3 ) ∧ (e1 , e2 , t1 ) ∈ Q ∧ (e2 , e3 , t 2 ) ∈ Q ⇒ (e1 , e3 , t1 ⊗ t 2 ) ∈ Q 2 5b) ∀e1 , e2 , e3 ∈ E∀t1 , t 2 ∈ T * : (e1 ≠ e2 ) ∧ (e2 ≠ e3 ) ∧ (e1 , e2 , t1 ) ∈ Q ∧ (e3 , e2 , t 2 ) ∈ Q ⇒ (e1 , e3 , t1 ⊗ t 2−1 ) ∈ Q 2 ∞ 6) Q * = U Q n n =1 Zwei Objekte e1 ,e 2 ∈ E stehen dann miteinander über eine Beziehung des Typs t ∈ T in Beziehung, wenn gilt: (e1 , e2 , t ) ∈ Q * . Analog zu dem Kompositionsoperator für Beziehungsklassen (Formel 6) lässt sich der Kompositionsoperator für Beziehungen ⊗ Q : Q * × Q * → Q * definieren. Im Folgenden bezeichne Qc1 ,c2 = {(e1 , e2 , t ) ∈ Q * | e1 ∈ Ec1 ∧ e1 ∈ Ec2 } die Menge aller Beziehungen zwischen Objekten der Klasse c1 ∈ C und c 2 ∈ C . Soll eine 2dA abgeleitet werden, um den Zusammenhang zwischen den Objekten zweier Klassen c1 , c 2 ∈ C darzustellen, kann hierzu jede (direkte oder abgeleitete) Beziehungsklasse aus der Menge Rc1 ,c2 ⊆ R * herangezogen werden: Rc1 ,c2 = {r ∈ R * | (π 1 (r ) = c1 ∧ π 2 ( r ) = c2 ) ∨ (π 1 (r ) = c2 ∧ π 2 (r ) = c1 ))} Die einzelnen Beziehungsklassen in Rc1 ,c2 unterscheiden sich im Typ und/oder der Richtung. Im Fall Rc1 ,c2 = ∅ kann keine 2dA zwischen den Klassen c1 und c 2 abgeleitet werden. Im Fall Rc1 ,c2 > 1 stehen mehrere Beziehungsklassen unterschiedlichen Typs und/oder Richtung zur Verfügung, welche alternativ zur Ableitung einer 2dA herangezogen werden können. Auch lässt sich für jede Klasse c1 die Menge Cc1 ⊆ C aller Klassen angeben, die überhaupt zur Ableitung einer 2dA in Frage kommen: Rc1c2 ≠ ∅ ⇒ c2 ∈ Cc1 . Beachte, dass die Granularität der Beziehungstypen 133 und die Definition des Kompositionsoperators ⊗ potentiellen Einfluss auf die Anzahl der Typen und auf die Mächtigkeit der Menge Rc1 ,c2 haben. 4. Reflexive Beziehungsklassen In der bisherigen Betrachtung wurden reflexive Kanten im Metamodell, d. h. Beziehungsklassen einer Gestaltungsklasse zu sich selbst mit (c, c, t ) ∈ R für c ∈ C , t ∈ T * , ausgeklammert. Beispiele für reflexive Beziehungsklassen sind die Assoziationen kommuniziert mit zwischen Objekten der Kasse Organisationseinheit oder ist vernetzt mit zwischen Objekten der Klasse Server. e21 c1 r1 c2 r3 e24 e12 c1 r1 (a) Metamodell e31 e32 e26 r3 e25 r2 c3 e23 e22 e11 e27 e28 e29 c2 r2 c3 (b) Modell Abbildung 3: Reflexive Beziehungsklasse im Kontext Abbildung 3 zeigt Beziehungen von und zu Objekten einer Klasse c 2 mit einer reflexiven Beziehungsklasse r3 . Für eine Klasse c ∈ C bezeichne Qc = {(e1 , e2 , t ) ∈ Q * | e1 ∈ Ec ∧ e2 ∈ Ec } die Menge aller Beziehungen zwischen Objekten der Klasse c , die definitionsgemäß Beziehungen reflexiver Beziehungsklassen sind. Bei der Ableitung der komponierten Beziehungen zwischen Objekten der Klassen c1 und c3 gibt es, in Abhängigkeit von der Semantik der reflexiven Beziehungsklasse r3 , verschiedene Möglichkeiten. Beispielsweise ist denkbar, dass zwei Objekte e1 ∈ Ec1 und e3 ∈ Ec3 dann über eine komponierte Beziehung (e1 , e3 , t1 ⊗ t 2 ) ∈ Qc1c3 verbunden sind, wenn es ein Objekt e2 ∈ Ec2 gibt mit (e1 , e2 , t1 ) ∈ Qc1c2 und (e2 , e3 , t 2 ) ∈ Qc2c3 für t1 , t 2 ∈ T * (direkte Verbindung). In Abbildung 3 ist dies beispielsweise für die Objekte e11 und e31 der Fall, welche über das Objekt e21 in Beziehung stehen. Dies entspricht der Semantik des in Abschnitt 3 eingeführten Kompositionsoperators ⊗ Q . Eine weitere Möglichkeit ist, dass e1 und e3 über die transitive Hülle der Beziehungen aus Qc2 verbunden sind (d. h. es gilt (e1 , e3 , t1 ⊗t 3 ⊗t 2 ) ∈ Q13 , wenn es Objekte e21 , e22 ∈ Ec2 gibt mit (e1 , e21 , t1 ) ∈ Qc1c2 und (e22 , e3 , t 2 ) ∈ Qc2c3 und (e21 , e22 , t 3 ) ∈ Qc+2 für t1 , t 2 , t 3 ∈ T * ) (transitive Verbindung). In Abbildung 3 ist dies beispielsweise für die Objekte e12 und e31 der Fall, welche über die Objekte e24 , e22 und e21 in Beziehung stehen. Dies kann auch so interpretiert werden, dass die Beziehung zwischen e12 und e24 implizit auch zwischen e12 und e22 sowie zwischen e12 und e21 gilt. Neben der direkten Verbindung und der transitiven Verbindung sind weitere kontextspezifische Semantiken für reflexive Beziehungsklassen und deren Zusammenwirken denkbar, insbesondere wenn eine Klasse mehrere reflexive Beziehungsklassen (z. B. vom Typ Generalisierung und Aggregation) besitzt. Als allgemeiner Ansatz zur Spezifikation verschiedener Semantiken reflexiver Beziehungsklassen lassen sich Funktionen der Form ext c1c2 : Ec1 × Ec2 × T * → Pot ( E c1 × E c2 × T * ) angeben, die eine Beziehung zwischen Objekten der Klassen c1 , c2 ∈ C expandieren. Pot(X) bezeichne dabei die Potenzmenge, also die Menge aller Teilmengen, der Menge X . Die Expansion 134 einer Beziehung bedeutet, dass weitere Beziehungen erzeugt werden, die aufgrund der expliziten Beziehung implizit gelten. Nun kann die Gesamtmenge aller expandierten Beziehungen Q exp wie folgt berechnet werden: Qcexp = 1c2 U exp q∈Qc1c 2 c1c2 (q) und Q exp = UQ c1 ,c2 ∈C exp c1c2 Wobei die Funktionen extc1c2 für je zwei Klassen c1 , c2 ∈ C die gewünschte Semantik der reflexiven Beziehungsklassen repräsentieren muss. Die Komposition der Beziehungen und die Berechnung * der transitiven Hülle Q exp der expandierten Beziehungen kann zu Q * mit Hilfe des in Abschnitt 3 eingeführten Kompositionsoperators ⊗ Q durchgeführt werden. 5. Hierarchische Verfeinerung Eine häufige Verwendung reflexiver Beziehungsklassen bei der Modellierung von Unternehmensarchitekturen ist die hierarchische Verfeinerung von Gestaltungsobjekten. Beispielsweise haben sich in den Praxisfallstudien reflexive Beziehungsklassen der Beziehungstypen „Aggregation“ (z. B. zur Zerlegung eines Geschäftsprozesses in Teilprozesse oder von Softwarekomponenten in Subkomponenten) und „Generalisierung“ (z. B. zur Zusammenfassung mehrere Produkte zu einer Produktlinie) als wichtiges Modellierungsvokabular herausgestellt. In diesem Abschnitt wird daher untersucht, wie die Expansionsfunktion exp für hierarchische Verfeinerungsbeziehungen zu definieren ist. Wir nehmen hierzu an, dass die Gestaltungsobjekte Ec1 einer Klasse c1 in einer Verfeinerungsbeziehung stehen, die durch eine Relation auf P ⊆ Ec1 × Ec1 beschrieben ist: (e1 , e2 ) ∈ P bedeutet, dass e1 eine Verfeinerung (z. B. eine Spezialisierung oder Teil ein Zerlegung) von e2 ist. Die Verfeinerungsrelation kann aus den Beziehungen aus Qc1 abgeleitet werden, im einfachsten Fall durch P = {(π 1 (q), π 2 (q)) | q ∈ Qc1 } . Durch die Verfeinerungsbeziehung soll ausgedrückt werden, dass ein Objekt e durch ein oder mehrere untergeordnete Objekte verfeinert wird und/oder ein oder mehrere übergeordnete Objekte verfeinert. Nicht erlaubt ist, dass ein Objekt eine Verfeinerung von sich selbst ist, weshalb der durch die Verfeinerungsrelation aufgespannte Graph kreisfrei (nicht zu verwechseln mit zykelfrei) sein muss. Der in Abbildung 3 dargestellte Verfeinerungsbaum der Beziehungen aus Qc2 erfüllt diese Bedingung. In Anlehnung an [4] definieren wir für ein Objekt e ∈ E die Verfeinerungsrelation Pe↓ , welche alle e untergeordneten Objekte auf e abbildet: Pe↓ = P + ran {e} . P + ist dabei die transitive Hülle von P , die im Wertebereich auf die Menge {e} eingeschränkt wird ( ran ). Der Definitionsbereich Ee↓ = dom( Pe↓ ) beinhaltet alle e untergeordneten Objekte. Analog definieren wir die Verfeinerungsrelation Pe↑ , welche e auf alle e übergeordneten Objekte abbildet: Pe↑ = P + dom {e} . Der Wer- tebereich Ee↑ = ran( Pe↑ ) beinhaltet alle e übergeordneten Objekte. In Abbildung 3 gilt beispielsweise Pe23 ↓ = {e26 , e28 , e27 , e29 } und Pe27 ↑ = {e26 , e23 , e21} . Gegeben seien zwei Gestaltungsklassen c1 und c 2 und zwei Gestaltungsobjekte e1 ∈ c1 und e2 ∈ c2 , für die jeweils sowohl übergeordnete als auch untergeordnete Objekte existieren. e1 und e2 stehen weiterhin miteinander in Beziehung, d. h. es existiert ein q ∈ Qc1c2 mit q = (e1 , e2 , t ) für ein t ∈ T * . Die Fallstudienbeispiele zeigen, dass eine Be- 135 ziehung von bzw. zu einem Gestaltungsobjekt e , das sich in einer hierarchischen Verfeinerungsbeziehung befindet, mit unterschiedlicher Semantik belegt sein kann (Gültigkeitstypen): (1) Die Beziehung gilt ausschließlich für das Objekt e . Es wird keine Aussage getroffen bezüglich übergeordneter und untergeordneter Objekte. (Beispiel: Beziehung hat Entwicklungsverantwortung für eines IT-Zulieferers zu Softwarekomponenten.) (2) Die Beziehung gilt implizit auch für alle untergeordneten Objekte. (Beispiel: Beziehung ist verantwortlich für zwischen Organisationseinheiten und Geschäftsprozessen, wenn die Organisationseinheit auch stets verantwortlich für alle Teilprozesse ist.) (3) Die Beziehung gilt implizit auch für alle übergeordneten Objekte. (Beispiel: Beziehung wird genutzt in zwischen Applikationen und Geschäftsprozessen. Wird eine Applikation in einem Teilprozess genutzt, wird diese definitionsgemäß auch in dem übergeordneten Prozess genutzt.) (4) Die Beziehung gilt implizit auch für alle übergeordneten und untergeordneten Objekte. Bei der Definition der Expansionsfunktion ext c1c2 : Ec1 × Ec2 × T * → Pot ( Ec1 × Ec2 × T * ) müssen diese unterschiedlichen Semantiken berücksichtigt werden. Für eine Beziehung q ∈ Qc1c2 gilt sowohl für das Ausgangsobjekt e1 als auch für das Zielobjekt e2 je einer der vier Gültigkeitstypen, wodurch sich 16 Erweiterungsfunktionen ergeben: ext c1c2 − − , ext c1c2 ↑− , ext c1c2 ↓− , extc1c2 b− , ext c1c2 −↑ , ext c1c2 ↑↑ , ext c1c2 ↓↑ , extc1c2 b↑ , ext c1c2 −↓ , ext c1c2 ↑↓ , ext c1c2 ↓↓ , extc1c2 b↓ , extc1c2 −b , extc1c2 ↑b , extc1c2 ↓b , extc1c2 bb . Der erste Pfeil gibt für die Verfeinerungsbeziehung des Ausgangsobjekts an, ob die Beziehung nur für das Ausgangsobjekt ( − ), implizit für alle übergeordneten Objekte ( ↑ ), alle untergeordneten Objekte ( ↓ ) oder beides gilt ( b ). Der zweite Pfeil gibt dies entsprechend für die Verfeinerungsbeziehung des Zielobjekts an. Zwei der Funktionen sind exemplarisch wie folgt definiert; alle übrigen Funktionen lassen sich analog definieren: ext c1c2 ↑− ((e1 , e2 , t )) = Ee1↑ × {e2 } × {t} und extc1c2 bb ((e1 , e2 , t )) = Ee1↑ ∪ Ee1↓ × Ee 2↑ ∪ Ee 2↓ × {t} 6. Aggregierte Betrachtung von Beziehungen Oft sind die Strukturen komplex, die sich durch Beziehungen zwischen Objekten von hierarchisch verfeinerbaren Gestaltungsklassen ergeben. Zur Komplexitätsreduktion kann es in Abhängigkeitsanalysen sinnvoll sein, die unteren Verfeinerungsebenen auszublenden. Die Beziehungen der ausgeblendeten Gestaltungsobjekte werden dann zwischen den übergeordneten Objekten aggregiert betrachtet. Abbildung 4 zeigt hierfür ein Beispiel: Zwei Gestaltungsobjekte e1 ∈ c1 und e2 ∈ c2 sind hierarchisch verfeinert. Die Verfeinerungen der Objekte stehen auf dritter Verfeinerungsebene miteinander in Beziehung („X“). Jedes „X“ entspricht einen Element q ∈ Qc1c2 . In Abbildung 4 sind dies z. B. die Beziehungen {(e112 , e23 ), (e113 , e222 ), (e111 , e221 ), (e122 , e221 ), (e121 , e211 )} . Diese Beziehungen können auch aggregiert auf den Ebenen 2 („XX“) und 1 („XXX“) betrachtet werden. Abbildung 4 veranschaulicht weiterhin, wie das Ausblenden der unteren Verfeinerungsebenen Abhängigkeitsanalysen kompakter und übersichtlicher werden lässt. Die Diskussion mit Stakeholdern in den Praxisfallstudien zeigte, dass das beliebige Ein- und Ausblenden von Verfeinerungsebenen und Teilbäumen in Matrixdarstellungen als wichtige Navigationsoperation zur Erschließung der strukturellen Zusammenhänge der Unternehmensarchitektur eingeschätzt wird. Diese aggregierten Beziehungen werden durch eine sogenannte „Lifting“-Transformation ( ↑ ) erzeugt, die im Folgenden in Anlehnung an [4] und [7] eingeführt wird. Die Verfeinerungsrelation Pc1 ⊆ Ec1 × Ec1 beschreibe wieder die Verfeinerungsbeziehung zwischen den Gestaltungsobjekten 136 der Klasse c1 . Dafür stellen wir die zusätzlichen Bedingungen, dass die Relation funktional ist (d. h. für jedes ea existiert höchstens ein eb mit ea Pc1 eb ) und azyklisch, so dass die Verfeinerungsrelation einen Baum ergibt wie in Abbildung 4. O. B. d. A. sollen in der Hierarchie (z. B. in der Matrixdarstellung) alle dem Objekt e ∈ Ee1 ↓ untergeordneten Objekte ausgeblendet werden (z. B. Objekt e11 in Abbildung 4). e1 e12 e221 e222 XX e11 X X XX e211 e212 XX e2 e22 X XX e21 X XX e12 XX XX XXX X e21 e2 e1 e121 e122 e23 e23 e111 e112 e113 e22 e11 XX XXX Abbildung 4: Aggregierte Betrachtung von Beziehungen (Verfeinerungsebenen 3 und 2) in einer Matrix-Darstellung D. h. nur die Objekte Ee = Ee1 ↓ − Ee ↓ sollen berücksichtigt werden4 (z. B. {e1 , e11 , e12 , e121 , e122 } ). Der darzustellende Verfeinerungsbaum wird durch die Verfeinerungsrelation Pe = Pc1 Ee beschrieben. Dies ist die Teilmenge der Verfeinerungsrelation Pc1 , in der jedoch alle Tupel nur Elemente von Ee enthalten (z. B. {(e11 , e1 ), (e12 , e1 ), (e121 , e12 ), (e121 , e12 )} ). In der Relation Qe c ⊆ Ee × Ec 2 × T * werden nun alle e untergeordneten Objekte durch e ersetzt. Hierzu definieren 2 wir zunächst I e als identische Abbildung auf Ee . Die Relation Pe = Pc+1 ran {e} , d. h. die transitive Hülle der Verfeinerungsrelation Pc1 eingeschränkt auf alle Tupel mit dem Wertebereich (range) e , bildet weiterhin alle e untergeordneten Objekte auf e ab (z. B. {(e111 , e11 ), (e112 , e11 ), (e113 , e11 )} ). Die Relation M e = I e ∪ Pe bildet dann alle e untergeordneten Objekte auf e und alle anderen Objekte auf sich selbst ab ( {(e111 , e11 ), (e112 , e11 ), (e113 , e11 ), (e1 , e1 ), (e11 , e11 ), (e12 , e12 ), (e121 , e121 ), (e122 , e122 )} ). Die Relation qe ist dann definiert durch qe = M e−1 o q , wofür die Kurzschreibweise mit dem Lifting-Operator verwendet werden kann: qe = q ↑ dom M e . Für die Relationen aus dem Beispiel ergibt sich: {(e11 , e23 ), (e11 , e222 ), (e11 , e221 ), (e122 , e221 ), (e121 , e211 )} (vgl. Pfeile in Abbildung 4). Diese Ausführungen betrachteten die Seite des Deinitionsbereichs (domain) der Beziehung q . Analog kann die Lifting-Operation auf dem Wertebereich der Relation durchgeführt werden. In diesem Fall gilt: q ↑ ran M e = q o M e . 4 Der Operator − steht an dieser Stelle für die (asymmetrische) Differenz zwischen Mengen. 137 7. Zusammenfassung und Ausblick In diesem Beitrag wurde ausgehend von dem Bedarf, für beliebige Unternehmensarchitekturmodelle flexible Analysen ableiten zu können, ein allgemeiner formaler Lösungsansatz für zweidimensionale Abhängigkeitsanalysen auf Unternehmensarchitekturmodellen vorgestellt. In einem ersten Schritt wird hier das mathematische Fundament für Abhängigkeitsanalysen auf Unternehmensarchitekturmodellen beschrieben, das in nachfolgenden Arbeiten wie folgt erweitert und überprüft werden kann: 1) Betrachtung mehrdimensionaler Abhängigkeiten: Auch mehrdimensionale Abhängigkeiten können betrachtet werden, beispielsweise indem in den Zellen einer Matrixdarstellung weitere Informationen dargestellt werden. Dies entspricht einer verschränkten Ausführung zweidimensionaler Abhängigkeitsanalysen. 2) Betrachtung weiterer Darstellungsformen und Manipulationsmechanismen: Neben den Matrixanalysen können weitere Visualisierung wie z. B. Dependency-Diagramme, Landscape-Maps oder Wiring-Diagramme abgeleitet werden. Darüber hinaus können verschiedene Manipulationsoperationen für die verschiedenen Darstellungsformen spezifiziert werden, um beispielsweise Bestandteile der Ergebnisse ein- und auszublenden oder Darstellungsformen ineinander zu überführen. 3) Prototypische Werkzeugumsetzung: Das Ziel der hier beschriebenen Arbeit ist es, die Grundlage zu legen für flexiblere Softwarewerkzeuge. Im Rahmen eines Proof-of-Concept sollte der Ansatz daher prototypisch umgesetzt werden. 8. Referenzen [1] AIER, S., KURPJUWEIT, S., RIEGE, C., SAAT, J.: Stakeholderorientierte Dokumentation und Analyse der Unternehmensarchitektur, in: Hegering, H.-G., Lehmann, A., Ohlbach, H.J., Scheideler, C. (eds.): Proceedings of INFORMATIK 2008: Beherrschbare Systeme – dank Informatik, Vol. LNI P-134, Band 2. GI/Köllen, Bonn 2008, S. 559–565 [2] AIER, S., KURPJUWEIT, S., SCHMITZ, O., SCHULZ, J., THOMAS, A., WINTER, R.: An Engineering Approach to Enterprise Architecture Design and its Application at a Financial Service Provider: Proceedings Modellierung betrieblicher Informationssysteme (MobIS 2008). GI/Köllen, Bonn 2008, noch nicht erschienen. [3] AIER, S., RIEGE, C., WINTER, R.: Unternehmensarchitektur - Literaturüberblick und Stand der Praxis, in: Wirtschaftsinformatik, Vol. 50, 2008, S. 292-304 [4] BRIL, R., FEIJS, L., GLAS, A., KRIKHAAR, R., WINTER, T.: Hiding Expressed Using Relation Algebra with Multi-Relations Oblique Lifting and Lowering for Unbalanced Systems: Proceedings of the Conference on Software Maintenance and Reengineering. IEEE Computer Society 2000 [5] VAN BUUREN, R., JONKERS, H., IACOB, M.-E., STRATING, P.: Composition of Relations in Enterprise Architecture Models: ICGT 2004, S. 39–53 [6] FAVRE, J.-M.: Foundations of Meta-Pyramids: Languages vs. Metamodels – Episode II: Story of Thotus the Baboon1, in: Bezivin, J., Heckel, R. (eds.), Dagstuhl 2005 [7] FEIJS, L.M.G., VAN OMMERING, R.C.: Relation partition algebra \&mdash; mathematical aspects of uses and part-of relations, in: Sci. Comput. Program., Vol. 33, 1999, S. 163-212 [8] IEEE: IEEE Recommended Practice for Architectural Description of Software Intensive Systems (IEEE Std 14712000). IEEE Computer Society, New York, NY 2000 [9] KÜHNE, T.: Matters of (meta-) modeling, in: Software and Systems Modeling, Vol. 5, 2006, S. 369-385 [10] NIEMANN, K.D.: Von der Unternehmensarchitektur zur IT-Governance: Leitfaden für effizientes und effektives IT-Management. Vieweg 2005 [11] SINZ, E.J.: Architektur von Informationssystemen, in: Rechenberg, P., Pomberger, G. (eds.): InformatikHandbuch. Hanser, München, Wien 1999 S. 1035-1046 [12] STRAHRINGER, S.: Ein sprachbasierter Metamodellbegriff und seine Verallgemeinerung durch das Konzept des Metaisierungsprinzips, in: Pohl, K., Schürr, A., Vossen, G. (eds.): 1998, S. 15-20 [13] WINTER, R., FISCHER, R.: Essential Layers, Artifacts, and Dependencies of Enterprise Architecture, in: Journal of Enterprise Architecture, Vol. 3, 2007, S. 7-18 138 SERVICEORIENTIERTE SOFTWAREARCHITEKTUREN Ziel serviceorientierter Softwarearchitekturen ist es, die Informationstechnologie im Unternehmen schneller und besser an die Anforderungen moderner Geschäftsprozesse anpassen zu können als das bisher möglich ist. Idee dabei ist, die Ausführung von Geschäftsprozessen flexibel durch entsprechende Softwaredienste zu unterstützen, die miteinander kombiniert werden können, um über passend standardisierte Schnittstellen zu kooperieren. Bevor sich das Paradigma serviceorientierter Softwarearchitekturen in der Praxis breit durchsetzen kann, sind allerdings noch verschiedene Probleme zu lösen. Dazu gehören beispielsweise Fragen zur Sicherheit und Zuverlässigkeit, zum effi zienten Finden von Services, zur Architekturbewertung sowie zur Einbindung von vorhandenen Altsystemen. Dieser Track möchte einen Überblick über aktuelle Forschungsarbeiten in diesem Gebiet geben, mit einem Fokus im Bereich der Modellierung und Realisierung von serviceorientierten Architekturen. Besonders relevant sind für die Diskussion in diesem Track bereits vorliegende Erfahrungen mit dem Einsatz serviceorientierter Architekturen in der betrieblichen Praxis. Leitungsgremium: Andreas Oberweis, Universität Karlsruhe (TH) (Federführender) Steffen Staab, Universität Koblenz Uwe Zdun, Technische Universität Wien Programmkomitee: Witold Abramowicz, Universität Poznan Jörg Bartholdt, Siemens AG Schahram Dustdar, Technische Universität Wien Frank Leymann, Universität Stuttgart Nikola Milanovic, Technische Universität Berlin Ralf Reussner, Universität Karlsruhe / FZI Karlsruhe York Sure, SAP Research Mathias Weske, HPI Potsdam COSMA – EIN INTEGRIERTER ANSATZ FÜR DAS MANAGEMENT VON SERVICE LEVEL AGREEMENTS BEI COMPOSITE SERVICES André Ludwig1 Kurzfassung Die Service-Bereitstellung in Service-Oriented Computing Umgebungen wird durch Service Level Agreements (SLA) beschrieben. Aktuelle SLA-Management-Ansätze konzentrieren sich auf bilaterale Service-Provider-/-Requester-Konstellationen, gehen jedoch nicht auf SLA-ManagementAnforderungen von Composite Service Providern ein. Diese betreffen das SLA-Management mit Providern von Atomic Services, mit Requestern von Composite Services und deren Abstimmung aufeinander. Ein Composite SLA Management Ansatz muss den Anteil von (Atomic) SLAs beim SLA-Management von (Composite) SLAs berücksichtigen. Der COSMA-Ansatz erlaubt ein integriertes Management von Atomic und Composite SLAs während deren gesamten Lebenszyklus. Er ermöglicht die Abbildung der Abhängigkeiten und Beziehungen zwischen unterschiedlichen SLAs und damit eine Kontrolle, Steuerung und Optimierung der SLA-Management-Aktivitäten. 1. Einleitung Service-Oriented Computing (SOC) beschreibt einen relativ neuen Ansatz für die Gestaltung von verteilten, unternehmensübergreifenden Informationssystemen. Mit SOC lassen sich Funktionalitäten von Informationssystemen als autonome, in sich geschlossene, Plattformunabhängige Services abstrahieren, welche aufgrund ihrer Geschlossenheit wiederum in komplexe zusammengesetzte Services integriert werden können. Man unterscheidet dabei konzeptionell in Atomic Services zur Abstraktion einer bestimmten Funktionalität und Composite Services, welche entsprechend einem Prozessfluss aus Atomic Services gebildet werden können. Eine Vision, die sich mit dem Gestaltungsansatz von SOC verbindet, ist die Etablierung einer global verfügbaren Infrastruktur, eines Service-Marktes für die Bereitstellung und Nachfrage von Services [12][6]. Diese Infrastruktur wird es Anbietern von Services (Service Provider) erlauben, zahlreiche Services in unterschiedlichen Service-Implementierungen mit individuellen ServiceEigenschaften einer Vielzahl von unterschiedlichen Service-Nachfragern (Service Requester) anzubieten, welche diese Service-Implementierungen zur Laufzeit (on-demand) an die nutzenden Anwendungen binden (dynamisches Binden). 1 Universität Leipzig, Germany 141 Die Entstehung von Service-Märkten auf der Basis von SOC wird zur Etablierung des Geschäftsmodells des Composite Service Providers (CSP) führen [2][5]. Ein CSP fragt Atomic Services von externen Service Providern nach und bietet die durch einen bestimmten Prozessfluss verbundenen Atomic Services als in sich geschlossene Composite Services eigenen Kunden im Service-Markt an. Das heißt, ein CSP agiert als unabhängige Geschäftseinheit, die eigenen Interessen folgt, Profitabilität und durch zuverlässige Service-Bereitstellung Kundenzufriedenheit sicherstellen muss. Die Definition, Steuerung und Kontrolle der Service-Bereitstellung kann durch Dienstgüteverträge, sogenannte Service Level Agreements (SLA), umgesetzt werden. SLAs bieten eine formale Beschreibung des ausgetauschten Services und definieren die Rechte und Pflichten der involvierten Parteien. Aktuelle SLA-Management-Ansätze für SOC-Umgebungen wie WSLA [8], WSAgreement [3] oder WSOL [13] stellen umfangreiche SLA-Sprachformalisierungen und SLAManagement-Ausführungsumgebungen zur Verfügungen. Sie konzentrieren sich dabei jedoch auf bilaterale Service Requester-/Service Provider-Konstellationen und vernachlässigen die SLAManagement-Anforderungen von Composite Service Providern. Diese Anforderungen betreffen zum einen das SLA-Management mit Anbietern atomarer Service, das SLA-Management mit Nachfragern von Composite Services und zum anderen die Abstimmung beider SLA-ManagementAktivitäten aufeinander. Ein SLA-Management-Ansatz für Composite Services muss den Anteil extern bezogener Services – formalisiert in deren (Atomic) SLAs (ASLA) – beim SLA-Management der Composite Services – formalisiert in deren (Composite) SLAs (CSLA) – berücksichtigen. Mit einer zunehmenden Anzahl von verfügbaren Service-Implementierungen, ServiceKonfigurationen und Service-Anforderungen und den daraus resultierenden unterschiedlichsten Composite Service-Implementierungen erfordert (nahezu) jeder durch einen Composite Service Provider bereitgestellte Composite Service eine spezifische Anzahl von SLA-Dokumenten und ein individuelles Management dieser SLAs. Aufgrund des dynamischen Bindens und des dynamischen Bereitstellens von Services in Service-Märkten muss auch das Composite SLA-Management dynamisch zur Laufzeit und damit automatisch realisiert werden. Die manuelle Ausführung von SLA-Management-Aktivitäten, z.B. die Verhandlung und Erstellung von SLAs oder das Monitoring und die Evaluierung von SLAs, ist für das SLA-Management in Service-Märkten nicht ausreichend. In diesem Beitrag wird ein neuer, integrierter Ansatz für das automatische Management von SLAs in Composite Services während ihres gesamten Lebenszyklus vorgestellt. Dieser Ansatz ist mit dem Akronym COSMA (COmposite Sla MAnagement) abgekürzt. COSMA ermöglicht die Abbildung von Beziehungen und Abhängigkeiten zwischen SLAs in Composite Services und erlaubt damit die zentrale Kontrolle, Steuerung und Optimierung der Composite SLA-Management-Aktivitäten bei einem CSP. Der Beitrag ist wie folgt strukturiert: Abschnitt 2 präsentiert die grundlegende Idee des COSMA-Ansatzes und stellt die konstitutiven Elemente von COSMA vor. Abschnitt 3 gibt einen kurzen Einblick in ein Anwendungsbeispiel und den COSMA Demonstrator und Abschnitt 4 fasst den Beitrag zusammen und gibt einen Ausblick in weitere Forschungsschritte. 2. Composite SLA Management-Ansatz (COSMA) Die grundlegende Idee des COSMA-Ansatzes ist die Integration aller in einen Composite Service involvierten SLA-Dokumente in ein Composite SLA Management Document. Dieses Composite SLA Management Document, welches im weiteren als COSMAdoc bezeichnet wird, beinhaltet die vertraglichen Informationen, gekapselt in SLA-Dokumenten, und zusätzlich alle SLA142 Management-Daten insbesondere zur Abbildung der Beziehungen und Abhängigkeiten zwischen einzelnen SLA-Dokument-Elementen. Auf der Basis Composite Service-spezifischer COSMAdoc-Instanzen kann der Beitrag von Atomic SLAs am Composite SLA abgebildet und nachvollzogen werden. Das SLA-Management-System eines CSP kann auf dieser Basis seine SLA-Management-Aktivitäten kontrollieren, steuern und optimieren. Dies betrifft insbesondere kompositionsweite SLA-Verhandlungen und kompositionsweite SLA-Monitorings und -Evaluierungen. Der COSMA-Ansatz besteht aus den folgenden Teilen: − COSMAdoc stellt ein generisches Informationsmodell für die Integration von vertraglichen Daten und SLA-Management-Daten zur Verfügung. COSMAdoc erweitert dabei ein bestehendes SLA-Informationsmodell und stellt Elemente für die Abbildung von Beziehungen und Abhängigkeiten zwischen SLA-Elementen zur Verfügung. − COSMAframe beschreibt ein konzeptionelles Rahmenwerk (Framework) für das dynamische Management von Composite SLAs. Das Rahmenwerk beschreibt dabei die generischen Komponenten sowie deren Nutzung von COSMAdoc-Instanzen zur Umsetzung der SLA-Lebenszyklus-Management-Aktivitäten. − COSMAlife stellt eine Sammlung von Mechanismen und Protokollen zur Verfügung, die definieren, wie die Komponenten von COSMAframe die Managementaktivitäten des SLA Lebenszyklus (Lifecycle) auf Basis von COSMAdoc-Instanzen umsetzen. COSMAframe, COSMAdoc und COSMAlife sind in die vorhandene Service Provisioning Infrastruktur des CSP eingebettet (z.B. SOA-Plattform, Enterprise Service Bus). Diese wird im Folgenden als Operation and Management System (OMS) bezeichnet. Das OMS stellt zahlreiche weitere Funktionen, beispielsweise zur Registrierung von Services, zur Interaktion mit Service Requestern und Providern und zur Administration, zur Verfügung. Weiterhin stellt das OMS Komponenten zur automatischen Erstellung von Composite Service-Orchestrierungsskripts (Service Composer), zur automatischen, Agenten-basierten Verhandlung von SLAs (Negotiation Engine) oder zur automatischen Ausführung und Kontrolle von Services (Service Enactment & Monitoring Engine) zur Verfügung2. 2.1 Informationsmodell COSMAdoc Das generische Informationsmodell COSMAdoc stellt das informationelle Herz des COSMAAnsatzes dar. Es kapselt die vertraglichen Informationen der involvierten SLAs und deren SLAManagement-Informationen in einer zentralen Einheit. Dabei wird für jeden involvierten Atomic Service ein SLA-Dokument (ASLA) und zusätzlich für den Composite Service ein SLA-Dokument (CSLA) erstellt. Zusätzlich werden die Beziehungen und Abhängigkeiten zwischen Elementen dieser SLA-Dokumente in COSMAdoc gespeichert. Für jeden durch einen CSP bereitgestellten Composite Service wird eine spezifische Instanz von COSMAdoc erzeugt und an den bereitgestellten Service gebunden. Die COSMAdoc-Instanz wird für alle in COSMAlife definierten Aktivitäten durch die COSMAframe-Komponenten verwendet. Auf der Basis der spezifischen, in der COSMAdoc-Instanz gespeicherten Beziehungen und Abhängigkeiten können die Komponenten von COSMAframe beispielsweise kompositionsweite SLA-Verhandlungen und Überprüfungen der SLA-Einhaltung durchführen. Aufgrund der Zusammenführung von SLA- und SLA-Management2 Die innerhalb des „Adaptive Services Grid“ (ASG) Projekts entwickelte ASG-Plattform stellt prototypische Implementierungen der vorgestellten Komponenten des OMS zur Verfügung. Weitere Informationen sind auf der Projekt-Website verfügbar [4]. 143 Informationen in einem zentralen Dokument stellt eine COSMAdoc-Instanz ein zentrales Managementwerkzeug für einen CSP dar, welches CSP-intern zur Kontrolle, Steuerung und Optimierung der SLA-Management-Aktivitäten genutzt wird. Die eingebetteten SLA-Dokumente enthalten dabei ausschließlich vertragliche Daten, die den jeweils beteiligten Vertragsparteien zugänglich gemacht werden können. Abbildung 1: Struktur des COSMAdoc-Informationsmodells COSMAdoc besteht aus sechs Kernelementen (vgl. Abbildung 1). Alle Kernelemente sind selbständige Teile, die teilweise über Referenzen miteinander verbunden sind. Die Elemente erfüllen die folgenden Aufgaben: − Header: Der Header einer COSMAdoc-Instanz dient zur Definition von Kontextinformationen und Parametern. Beispielsweise lassen sich der Besitzer der Instanz, eine Versionsnummer oder Beschreibung definieren. Zusätzlich können die in der COSMAdoc-Instanz verwendeten semantischen Modelle referenziert werden. − ServiceComposition: Das Element ServiceComposition erlaubt die Speicherung des dem Composite Service zugrunde liegenden Orchestrierungsskripts (z.B. in WS-BPEL [11]). Das 144 − − − − Orchestrierungsskript dient nicht nur der Ausführung des Composite Service, sondern bestimmt maßgeblich die Beziehungen zwischen ASLA und CSLA Elementen. SlaSetAssembly: In SlaSetAssembly werden Sla-Elemente zur Repräsentation von ASLAs und CSLA gespeichert. Dabei werden ausschließlich vertragliche Informationen in SlaElementen gespeichert. Die Struktur jedes Sla-Elements basiert auf dem dreiteiligen SLAModell der WS-Agreement Spezifikation [3]. Die vom Open-Grid-Forum (OGF) erarbeitete Spezifikation bietet eine umfangreiche Grundlage zur Formalisierung von bilateralen Verträgen zwischen Vertragspartien. Das COSMAdoc SLA-Modell erweitert das WSAgreement SLA-Modell um MonitoringTerms zur Definition der Monitoring-Konfiguration (vgl. z.B. Ausführungen in [8]), NegotiationTerms zur Speicherung des zugrunde liegenden Verhandlungsprotokolls und FinancialTerms zur strukturierten Speicherung von finanziellen Aspekten des SLA (z.B. Verrechnungsmodelle und -entgelte, Sanktionen und Boni). SlaSetUsageValidation: Der Bereich SlaSetUsageValidation ermöglicht die Kontrolle und Restriktion der Verwendung von Sla-Element-Teilen der SlaSetAssembly. Beispielweise lassen sich Teile von Sla-Elementen als obligatorisch, optional oder verhandelbar deklarieren. Weiterhin können Formatrestriktionen, z.B. bestimmte Datumsformate oder Nachkommastellen, zugewiesen werden. Restriktionen, welche die Verwendung einschränken, lassen sich als immer geltende (default) und bei Erfüllung einer bestimmten Bedingung geltend (conditional) definieren. Zur Identifizierung der Sla-Element-Teile werden Pointer verwendet (z.B. durch Anwendung der Syntax von XPath [14]). SlaSetDataValidation: Während die SlaSetUsageValidation die Verwendung von SlaElementen kontrolliert, können mit dem Bereich SlaSetDataValidation die Daten der beinhalteten Sla-Elemente kontrolliert werden. Durch Prädikate lassen sich Teile von SlaElementen in ihren zulässigen Maximal-/Minimalwerten, Wertebereichen oder auf feste Werte beschränken. Da insbesondere die Daten von CSLA-Elementen von Daten der ASLA-Elemente abhängen, lassen sich die Prädikate der SlaSetDataValidation an Aggregationsformeln knüpfen, welche die Daten der Sla-Elemente unterschiedlicher SLAs über Algorithmen miteinander verbinden. Durch die Verknüpfung von Prädikaten mit Aggregationsformeln kann gewissermaßen eine Querverbindung zwischen SLA-Elementen unterschiedlicher Sla‘s dargestellt werden. Die Verwendung von Aggregationsformeln ist dennoch nicht auf das Zusammenführen von ASLA- und CSLA-Elementen beschränkt, sondern lässt sich auch auf Zusammenhänge zwischen ASLA-Elementen anwenden. Abbildung 2 veranschaulicht die Zuweisung von Aggregationsformeln aus dm Bereich der AggregationFormulas über Prädikate der SlaSetDataValidation an Teilen von SlaElementen (z.B. an Service Level Objectives in GuaranteeTerms). Ähnlich wie bei SlaSetUsageValidation lassen sich auch im Bereich SlaSetDataValidation Prädikate als default oder conditional definieren. AggregationFormulas: Im Bereich der AggregationFormulas werden die Beziehungen und Abhängigkeiten zwischen Elementen unterschiedlicher SLAs in Form von Aggregationsformeln (Formula) gespeichert. Die Aggregationsformeln können unterschiedlichste mathematische Operatoren verwenden und referenzieren die verwendeten Terme (Teile von Sla-Elementen aus dem Bereich der SlaSetAssembly) durch Pointer (z.B. unter Verwendung der XPath Syntax [14]). Aggregationsformeln werden dabei für GuaranteeTerms, FinancialTerms und MonitoringTerms (Teile des COSMAdoc SLAModells) gespeichert. Die Aggregationsformeln und deren Komplexität hängen im Wesentlichen von zwei Faktoren ab: der Struktur des Orchestrierungsskripts und der Art und Anzahl der in den SLAs verwendeten SLA-Parametern (z.B. Verfügbarkeit, Antwortzeit, Verrechnungsentgelt). Zur Erzeugung der Aggregationsformeln müssen 145 zunächst die unter Umständen komplexen, geschachtelten Orchestrierungsskripte in ihre atomaren Kompositionsmuster (z.B. Sequenz, Schleife, Parallel Split) zerlegt werden und anschließend Aggregationsformeln für verschiedene SLA-Parameter erstellt werden. Etablierte Ansätze, die bei der Erzeugung von Aggregationsformeln Verwendung finden können, stellen beispielsweise [7] und [15] dar. Abbildung 2: Zuweisung von Aggregationsformeln über Prädikate an SLA Elementen Die Kernelemente von COSMAdoc bilden eine feste Struktur und erlauben die Definition eines generischen COSMAdoc-Templates. Dieses Template ist erweiterbar und kann an unterschiedliche Anwendungsbereiche angepasst werden. Für unterschiedliche von einem CSP angebotene Composite Services werden individuelle Dokumentinstanzen des COSMAdoc-Templates gebildet. 2.2 Konzeptionelles Rahmenwerk COSMAframe COSMAframe stellt ein konzeptionelles Rahmenwerk dar, welches die generischen Komponenten, die für ein automatisches Verarbeiten von COSMAdoc-Instanzen, z.B. SLA-Erstellung und -Verhandlung oder SLA-Monitoring und -Evaluierung notwendig sind, definiert. COSMAframe ist als abstrakte Lösung zu interpretieren, in der die Komponenten in ihrem grundlegenden Verhalten und ihren generischen Schnittstellen beschrieben werden. COSMAframe ist kein Implementierungsrahmenwerk und kein Rahmenwerk, welches feste Programmierschnittstellen und Datenobjekte beschreibt, sondern ist notwendigerweise zu erweitern und anzupassen. COSMAframe besteht aus den folgenden generischen Komponenten (vgl. Abbildung 3): − COSMA Manager: Der COSMA Manager stellt die zentrale Steuerungs- und Verwaltungskomponente in COSMAframe dar, die alle anderen Komponenten entsprechend der notwendigen Management-Aktivitäten im SLA-Lebenszyklus triggert. Die Komponente bietet einen zentralen Port für externe Komponenten und stellt eine Validierungsschnittstelle bereit, welche die SlaSetUsageValidation und SlaSetDataValidation Prädikate in COSMAdoc-Instanzen auswertet und damit beispielsweise durch Verhandlungsmaschinen (Negotiation Engines) nutzbar macht. − COSMAdoc Creator: Die Komponente COSMAdoc Creator ist für die kompositionsspezifische Erzeugung von COSMAdoc-Instanzen verantwortlich. Auf der Basis eines durch einen Service Composer erstellten Orchestrierungsskripts modularisiert die Komponente die Komposition und baut die COSMAdoc-Instanz aus dem generischen COSMAdoc Template auf. − COSMAdoc Integrator: Die kompositionsspezifische COSMAdoc-Instanz wird im COSMAdoc Integrator um weitere Elemente ergänzt. Der COSMAdoc Integrator fügt 146 zunächst sämtlich SLA-Elemente, wie Servicequalitäts-Parameter und deren Metriken, finanzielle Parameter wie Entgelt-/Sanktionen-/Bonus-Verrechnungsmodelle und die Monitoring- und Verhandlungskonfigurationen ein. Anschließend werden alle direkt ableitbaren SlaSetUsageValidation- und SlaSetDataValidation-Prädikate erstellt und zusammen mit den dazugehörigen Aggregationsformeln in die COSMAdoc-Instanz eingebettet. Zum Teil werden dazu Konfigurationen verwendet, welche in einer Datenbank hinterlegt sind. − COSMAdoc Repository: Die erstellten und integrierten COSMAdoc-Instanzen werden im COSMAdoc Repository gespeichert. Das Repository ist für alle internen COSMAdocInstanzen erreichbar. − COSMAdoc Validator and Violation Detector: Zur Validierung und Erkennung von Verletzungen der in einen Composite Service involvierten SLAs wird die Komponente COSMAdoc Validator and Violation Detector verwendet. Die Komponente vergleicht Monitoring-Messergebnisse zur Laufzeit mit in den ASLAs verwendeten Service Level Objectives (Mindest-Service Levels). Auf dieser Basis und unter Hinzuziehung der gespeicherten Aggregationsformeln wird ermittelt, ob Verletzungen bei ASLAs zur Verletzung der CSLA führen. Es wird damit dokumentiert, welcher Atomic Service für eine Verletzung der CSLA verantwortlich ist. Die Komponente erstellt auf dieser Basis Vorschläge zur Behandlung der Verletzung, z.B. Forderung von Sanktionen durch die Verursacher bzw. Zahlung von Sanktion an den Nachfrager des Composite Service, und stellt diese Vorschläge dem COSMA Manager zur Verfügung. OMS <<component>> Service Composer ServiceComposition Deductive Database Negotiation Engine DDBQuery Negotiation Service Enactment and Monitoring Engine ServiceEnactment ServiceMonitoring OMS COSMAframe <<component>> <<component>> COSMA Manager COSMAdoc Creator <<component>> COSMAdoc Repository COSMAHandler <<component>> <<component>> COSMAdoc Integrator COSMAdoc Validator and Violation Detector Abbildung 3: COSMAframe Komponentenüberblick sowie externe Komponenten Die Komponenten von COSMAframe nutzen eine Reihe externer Komponenten. Dazu zählen beispielsweise ein Service Composer zur automatischen Erstellung von generischen Orchestrierungsskripten zur Laufzeit, eine Negotiation Engine zur automatischen Verhandlung von SLAs durch autonome Verhandlungsagenten, eine Service Enactment and Monitoring Engine zur schrittweisen Ausführung und zum Monitoring der Atomic und Composite Services. Diese Komponenten zählen nicht zu COSMAframe und es muss auf existierende Ansätze und Prototypen zurückgegriffen werden (vgl. z.B. prototypische Komponentenimplementierungen im Adaptive Services Grid Projekt [4]). 147 2.3 Mechanismen zum Management des Composite SLA Lebenszyklus COSMAlife COSMAlife stellt einen integrierten Satz von Mechanismen für das Management des SLALebenszyklus bereit. Dabei fokussiert COSMAlife insbesondere die für einen CSP besonders relevanten Phasen: SLA-Erstellung und -Verhandlung und SLA-Monitoring und -Evaluierung. Die Phase des Durchsetzens von SLA-Festlegungen durch die Service-Bereitstellungsinfrastruktur (SLA Provisioning & Fulfilment) ist für das Grundmodell des CSP irrelevant, da er ausschließlich externe Atomic Services integriert. Weitere Phasen des SLA-Lebenszyklus wie SLA-Terminierung und -Erklärung werden in diesem Beitrag nicht näher betrachtet. Generell kann das Management von SLAs als zyklischer Prozess mit iterativen Managementschritten charakterisiert werden. Das heißt, die SLA-Lebenszyklus-ManagementAktivitäten müssen für jeden durch den CSP bereitgestellten Composite Service parallel ausgeführt werden. Der aktuelle Status innerhalb des SLA-Lebenszyklus wird durch die in COSMAdoc enthaltenen StateTerms gespeichert. Aus Platzgründen soll an dieser Stelle auf nähere Ausführungen zu COSMAlife verzichtet werden. COSMAlife Protokolle zur Verhandlung von SLAs in Composite Services werden in [9] vorgestellt. 3. Anwendungsszenario und Demonstrator Zur Illustration der Anwendung des COSMA-Ansatzes und seiner konstitutiven Teile COSMAdoc, COSMAframe und COSMAlife wurde ein Anwendungsszenario entwickelt, welches auf einem mit Partnern aus Industrie und Wissenschaft entwickelten Anwendungsszenario aus dem Adaptive Services Grid EU-Projekt aufbaut [10]. Das Szenario beschreibt einen Internet Service Provider (ISP), der als CSP unterschiedliche, Kunden-individuell zusammengesetzte Services im Bereich Webspace-Provisioning anbietet. Zu den bezogenen Atomic Services zählen Services zur Registrierung von Domain Names, zur Abwicklung von Kreditkartenzahlungen oder zum Setup des Webspace Hostings. Der angebotene Composite Service fasst diese Atomic Services entsprechend einem Orchestrierungsskript zusammen und wird unterschiedlichen Service Requestern angeboten. Im Anwendungsszenario wird gezeigt, wie der ISP eine auf COSMA basierende Composite SLA Management-Lösung zur Realisierung der SLA-Management-Aktivitäten nutzt. Zusätzlich wurde ein Demonstrator entwickelt, der die Protokolle und Mechanismen von COSMAlife umsetzt, individuelle COSMAdoc-Instanzen erzeugt und zum SLA-Management verwendet und damit eine stabile Grundlage zur explorativen weiteren Untersuchung des COSMAAnsatzes bietet. Mit dem Demonstrator und den hinterlegten Testfällen können Experimente und eine schrittweise Überprüfung der kompositionsweiten SLA-Verhandlungen bzw. -Monitorings durchgeführt werden. Sowohl das Anwendungsszenario als auch der Demonstrator sind als repräsentative Umsetzungen des COSMA-Ansatzes zu verstehen und in keiner Weise auf diese beschränkt. Abbildung 4 gibt einen Überblick über das Anwendungsszenario, den verwendeten Composite Service und zeigt einen Screenshot des COSMA-Demonstrators. 148 Abbildung 4: Übersicht Anwendungsszenario, Composite Service und COSMA-Demonstrator 4. Zusammenfassung und Ausblick Das Thema Composite SLA Management in SOC-Umgebungen ist ein relativ junges Forschungsthema und insbesondere durch die hohe Dynamik in SOC-Umgebungen und der damit verbundenen Anforderung zur Automatisierung charakterisiert. COSMA stellt einen neuen Ansatz für das automatische Management von SLAs bei Composite Services bereit und ermöglicht einem CSP damit seine SLA-Management-Aktivitäten automatisch zu kontrollieren, zu steuern und zu optimieren. Dies betrifft die Maximierung der Profitabilität, indem SLA-Datenrestriktionen als Basis für SLA-Verhandlungen und Berechnungen von finanziellen Aspekten verwendet werden können (Minimierung der Kosten für bezogene Services und Maximierung des Composite Service Verkaufspreises). Weiterhin kann über die Kontrolle der SLA-Daten der Qualitätsbeitrag von Atomic Services zu Composite Services abgebildet und damit zusicherbare Servicequalität definiert werden (Minimierung von notwendigen Servicequalitätsanforderungen zu Atomic Services bei gleichzeitiger Erreichung der geforderten Servicequalität für Composite Services). COSMA stellt einen konzeptionellen Ansatz dar, der entsprechend individuellen Anforderungen und domänenspezifischen Besonderheiten angepasst und erweitert werden muss. Untersuchungen von COSMA mit weiteren Anwendungsszenarien und einer größeren Anzahl von Services in unterschiedlichen Service-Implementierungen wird zu weiteren Erkenntnissen und Anpassungen des Ansatzes führen. Darin ist auch eine Ausweitung von COSMAlife auf die Phase SLATerminierung und Voraussage von Verletzungen einbegriffen. Nach der Terminierung von SLAs in COSMAdoc-Instanzen sollte das Service-Verhalten in dynamischen Service Profilen (vgl. z.B. DSP-Ansatz aus [1]) gespeichert und bei der Erzeugung von Daten- und Verwendungsrestriktionen (SlaSetDataValidation bzw. SlaSetUsageValidation) einbezogen werden. Dadurch lässt sich der Prozess der SLA-Verhandlungen iterativ verbessern und zusätzlich unterschiedliche SLALebenszyklen miteinander verbinden. 149 Quellen [1] ABRAMOWICZ, W., KACZMAREK, M., KOWALKIEWICZ, M., ZYSKOWSKI, D., Architecture for Service Profiling. In: Proceedings of the Services Computing Workshops SCW'06, Chicago 2006, S. 121-130. [2] ALONSO, G., CASATI, F., KUNO, H., MACHIRAJU, V., Web services: concepts, architectures and applications. Springer, Berlin, New York 2004. [3] ANDRIEUX, A., CZAJKOWSKI, K., DAN, A., KEAHEY, K., LUDWIG, H., NAKATA, T., PRUYNE, J., ROFRANO, J., TUECKE, S., XU, M., Web Service Agreement Specification (WS-Agreement). http://www.gridforum.org/documents/GFD.107.pdf, letzter Zugriff am 04.06.2008. [4] ASG: Integrated Project Adaptive Services Grid, ASG Projekt-Website: http://www.asg-platform.org, letzter Zugriff am 13.06.2008. [5] BENATALLAH, B., DUMAS, M., MAARMAR, Z., Definition and Execution of Composite Web Services: The SELF-SERV Project. In: Data Engineering Bulletin, 25 (2002) 4, S. 1-6. [6] HEUSER, L., The Internet of Services. http://www.fit.qut.edu.au/industry/corporateevents/docs/ 22Oct07_ProfessorHeuser_SAPResearch.pdf, letzter Zugriff am 02.03.2008. [7] JAEGER, M.C., ROJEC-GOLDMANN, G., MUEHL, G., QoS aggregation for Web service composition using workflow patterns. In: Proceedings of the The 8th International IEEE Enterprise Distributed Object Computing Conference (EDOC 2004), Monterey 2004, S. 149-159. [8] KELLER, A., LUDWIG, H., The WSLA Framework: Specifying and Monitoring Service Level Agreements for Web Services. In: Journal of Network and Systems Management, Special Issue on E-Business Management, 11 (2003) 1, S. 57-81. [9] LUDWIG, A. FRANCZYK, B., Managing Dynamics of Composite Service Level Agreements with COSMA. Akzeptiert zur Publikation bei 5th International Conference on Fuzzy Systems and Knowledge Discovery (FSKD 2008), Jinan, China, 18.-20.10.2008. [10] MOMOTKO, M., GAJEWSKI, M., LUDWIG, A., KOWALCZYK, R., KOWALKIEWICZ, M., ZHANG, J.Y., Towards adaptive management of QoS-aware service compositions. In: Multiagent and Grid Systems, 3 (2007) 3, S. 299-312. [11] OASIS: Organization for the Advancement of Structured Information Standards, Web Services Business Process Execution Language Version 2.0 (WS-BPEL). http://docs.oasis-open.org/wsbpel/2.0/OS/wsbpel-v2.0-OS.html, letzter Zugriff am 23.11.2007. [12] PAPAZOGLOU, M.P., Web Services: Principles and Technology. Prentice Hall, Essex 2007. [13] TOSIC, V., PATEL, K., PAGUREK, B., WSOL - Web Service Offerings Language In: Proceedings of the International Workshop on Web Services, E-Business, and the Semantic Web (WES2002), Toronto 2002, S. 5767. [14] W3C: World Wide Web Consortium, XML Path Language (XPath). http://www.w3.org/TR/xpath, letzter Zugriff am 26.11.2007. [15] ZENG, L., BENATALLAH, B., NGU, A.H.H., DUMAS, M., KALAGNANAM, J., CHANG, H., QoS-Aware Middleware for Web Services Composition. In: IEEE Transactions on Software Engineering, 30 (2004) 5, S. 311327. 150 WIEDERGEWINNUNG VON WEB SERVICES AUS VORHANDENEN ALTSYSTEMEN Harry M. Sneed1 Kurzfassung Dieser Beitrag beschreibt einen Werkzeugkasten für die Ableitung von Web Services aus bestehenden COBOL Programmen auf dem IBM Mainframe. Das erste Werkzeug - COBAudit – dient dazu potentielle Web Services zu identifizieren. Das zweite Werkzeug -COBStrip – markiert den Programmpfad zum gewünschten Ergebnis und kommentiert den Rest des Codes aus. Das dritte Werkzeug - COBWrap – kapselt den ausgewählten Codebaustein und transformiert ihn in eine ausführbare Komponente. Das vierte Werkzeug – COBLink – verbindet die gekapselte Komponente mit dem Web über eine WSDL Schnittstelle. Die Werkzeuge werden zurzeit an einem großen Bausparsystem mit 12 Millionen COBOL Anweisungen erprobt. Der Beitrag beschreibt den Stand dieser Arbeit relativ zum allgemeinen State of the Art auf dem Gebiet. 1. Migration zur Service-orientierten Architektur Konventionelle Anwendungssysteme sind bekanntlich sehr starr und es dauert viel zu lange sie zu verändern. Es kann Monate dauern bis ein Änderungsantrag genehmigt, umgesetzt und getestet wird. Größere Änderungen wie die Baseler Vereinbarungen für das Kreditgeschäft können sogar Jahre dauern. Alte Software ist schwer zu verstehen und noch schwieriger zu verändern ohne unerwünschte Seiteneffekte. Sie hat sich über die Zeit erhärtet. Sie aufzubrechen um neue Funktionen einzuschieben verursacht einen unverhältnismäßig hohen Aufwand. Anderseits verlangt unsere schnelllebige Zeit ständige Anpassungen mit schnellen Reaktionszeiten. Service-orientierte Architekturen versprechen eine größere Flexibilität der Geschäftsprozesse und eine rasche Umsetzung von Änderungen zu der Software. Die einzelnen Softwarebausteine werden als allgemein gültige Web Services bereitgestellt. Es obliegt den Prozessverantwortlichen, sie beliebig in ihren Prozessen einzubauen. Er kann auch die Web Services ohne weiteres austauschen können. Heute benutzt er Web Service A, morgen Web Service B. Zwischen den bereits verwendeten Web Services kann er neue Web Services jederzeit einschieben. Seine Geschäftsprozesse kann er selber gestalten. Er trägt die Verantwortung für den jeweiligen Gesamtprozess. Die IT muss nur garantieren, dass die Web Services das leisten, was in deren Spezifikation versprochen ist. Die wichtigste Voraussetzung für eine service-orientierte Architektur ist das Vorhandensein ausreichender Web Services. Wenn wir davon ausgehen, dass ein Web Service eine feine Granularität haben sollte, um in möglichst viele Geschäftsprozesse hineinzupassen, wird ein Web 1 Universität Regensburg, Germany, Institut für Wirtschaftsinformatik Lehrstuhl-I Prof. Pernul 151 Service in etwa einem Modul mit maximal 500 Anweisungen entsprechen. Demnach wird ein einziger betriebswirtschaftlicher Prozess wie die Genehmigung eines Kredits eine Menge von 10 bis 50 Web Services benötigen. Eine ganze Applikation, wie z.B. das Kreditwesen, wird mehrere hundert Web Services in Anspruch nehmen. Die Frage stellt sich, woher sollen die vielen Web Services herkommen. Dieser Autor hat schon in einer früheren Veröffentlichung darauf hingewiesen: • man kann sie kaufen • man kann sie mieten • man kann sie übernehmen • man kann sie entwickeln • man kann sie wiederaufbereiten. Das Kaufen heißt, sie als Standard Softwaresteine von einem Anbieter zu kaufen und bei sich auf der eigenen Anlage zu installieren. Das Mieten heißt sie auf einer fremden Plattform nach Bedarf zu verwenden – „Software on Demand“, bzw. „Software as a Service“. Das Übernehmen heißt, sie von der Open Source Gemeinde zu übernehmen, anzupassen und in der eigenen Umgebung einzusetzen. Entwickeln heißt, sie selber nach den eigenen Anforderungen zu spezifizieren, zu implementieren und auszutesten. Die Wiederaufbereitung bedeutet letztlich, dass sie aus den vorhandenen Altsystemen entnommen und entsprechend aufbereitet werden. Alle fünf Alternativen haben Vor- und Nachteile, auf die hier nicht weiter eingegangen wird. Sie wurden in früheren Veröffentlichungen ausführlich diskutiert. In diesem Beitrag geht es ausschließlich um das fünfte Alternativ – die Gewinnung aus der Altsoftware. Hier wird ein Weg aufgezeichnet wie man Codebausteine in vier Schritten aus dem bestehenden Source Code herausnimmt und in ausführbare Web Services verwandelt. Ob dies das beste Alternative zur Gewinnung von Web Services ist, bleibt dahingestellt. Auf jeden Fall ist es schnell und relativ preiswert. 2. Zum Stand der Altsysteme Gegenwärtig haben viele Anwenderbetriebe der ersten Stunde mit den Systemen, die sie damals mühevoll entwickelt haben, zu kämpfen. Sie kommen davon nicht ohne weiters los. Im Laufe der Jahre sind diese Systeme gemäß den Gesetzen der Softwareevolution immer größer und komplexer geworden [1]. Angesichts ihrer aktuellen Größe und Komplexität, ist es ist kaum möglich sie zu ersetzen. Zum einen, wäre es viel zu teuer, zum anderen weis keiner genau was in ihnen steckt. Das Wissen der Vergangenheit liegt in dem Code begraben. Auch eine Migration ist fragwürdig, ob es sich lohnt die Altsoftware auf eine neue Hardware Plattform oder in eine andere Sprache zu versetzen. Die Komplexität wird dadurch nicht weniger, die Qualität nicht besser. Das migrierte System bleibt ein schwarzer Kasten. Haben Systeme einmal die Million Codezeilen Grenze überschritten, ist es kaum noch möglich sie ohne eine erhebliche Investition zu erneuern. Der Anwender sitzt in der so genannten Legacy Falle. Um, z.B. ein Bausparsystem mit 12 Millionen Codezeilen und 8 Millionen Anweisungen neu zu entwickeln würde es nach der COCOMO-II Methode 1.175 Personenjahre, nach der Function-Point Methode 1.668 Personenjahre und nach der Data-Point Methode 1.233 Personenjahre kosten. Allein um das System mit einer jährlichen Änderungsrate von 7% zu erhalten, werden circa 80 Personen pro Jahr benötigt. Sogar eine Sanierung würde in der Größenordnung von 60 Personenjahren kosten. Gleichzeitig gehen die Einnahmen durch das Bauspargeschäft zurück, d.h. der Anwender ist gezwungen zu sparen. Obwohl seit Jahren darüber geredet wird, gibt es in Deutschland immer noch keine Standardsoftware für die Bausparbranche. Ergo gibt es wenig Hoffnung, weder auf eine Neuentwicklung, noch auf eine Sanierung, noch auf die Ablösung durch ein Standardprodukt. Was bleibt ist die Migration in eine Service-orientierte Architektur. Wenn es 152 gelingt die Web Services automatisch aus der Altsoftware zu gewinnen, könnte diese Alternativ unter der 40 Personenjahre Grenze bleiben, wobei der Hauptanteil davon für den Test wäre. Anderseits nimmt der Wettbewerb ständig zu. Der Markt der Finanzdienstleistungen wird immer härter umkämpft. Um bestehen zu können, muss ein Anbieter sowohl den Vertretern im Außendienst als auch den Kunden Zugriff auf die zentralen Datenbestände über das Internet gewähren. Vertreter und Kunden sollten in der Lage sein, verschiedene Sparmodelle durchzurechnen. Dazu brauchen sie einzelne, überschaubare Web Services. Außerdem wird verlangt die Geschäftsprozesse flexibler zu gestalten und im Hinblick auf Personalreduktion zu optimieren. Weder das eine noch das andere Ziel kann ohne den erleichterten Zugang zur Funktionalität der bestehenden Applikationssoftware erreicht werden. Es gebe daher zwei gute Gründe für eine service-orientierte Architektur, die Funktionen innerhalb der Altsysteme zugänglich macht. Der erste Grund ist der Internetanschluss für die Online Transaktionen auf dem Mainframe. Der zweite Grund ist die Möglichkeit bisherige Transaktionen als Schritte in die neu gestalteten Geschäftsprozesse einzubauen. Anderseits, darf der Übergang zur neuen Architektur die Kontinuität der laufenden Produktion nicht gefährden. Die Altsysteme müssen ununterbrochen ihren Dienst weiter leisten. Die Anforderung, eine neue ServiceArchitektur mit der bestehenden Fachlichkeit zu schaffen und die Einschränkungen dies mit möglichst wenig Kosten und ohne den laufenden Betrieb zu stören, stellt die Reengineering Technologie vor einer großen Herausforderung [2]. 3. Virtuelle Migration Der Begriff „Migration“ wird normalerweise benutzt um die Versetzung eines Systems in eine andere Umgebung, bzw. die Übertragung der Daten in eine andere Art Datenbank oder die Übersetzung der Programme in eine andere Programmiersprache, zu bezeichnen [3]. Eigentlich trifft diese Definition hier nicht ganz zu, denn die Software bleibt in derselben Sprache und in derselben Umgebung in der sie bisher war. Nichts ändert sich außer den Schnittstellen zu der Software. Folglich handelt es sich weniger um eine herkömmliche Migration als viel mehr um eine Integration, bzw. um eine virtuelle Migration [4]. Die bestehenden IMS Transaktionen auf dem Mainframe werden in eine neue service-orientierte Architektur integriert. Statt mit den Endanwendern direkt über feste MFS Masken auf 3270 Terminals zu kommunizieren, kommunizieren sie mit den Web Clienten der Geschäftsprozesse indirekt über WSDL Schnittstellen. Sie werden zu Knoten in einem unternehmensweiten Netz von Web Services [5]. 4. Stand der Forschung auf dem Gebiet der Web Service Mining Dieses Projekt ist nicht das Erste dieser Art. Forschung auf dem Gebiet der Web Service Mining findet schon seit Jahren statt, allerdings ohne all zu viele praktische Ergebnisse. Mit „Mining“ ist die Gewinnung der Services aus der bestehenden Codemasse gemeint. Die Vision einer Serviceorientierten Architektur ist für die überlasteten Anwender mit ihren veralteten Legacysysteme so etwas wie eine Fata Morgana. Sie verspricht Ihnen die Befreiung von den Fesseln ihrer Softwaretechnischen Vergangenheit. Kommerzielle Produktanbieter und Service-Dienstleister nähren dieser Hoffnung mit neuen verheißungsvollen Produkten und Services [6]. Dennoch um in den Genuss jener Produkte und Services zu kommen, müssen die Anwender erst den funktionalen Inhalt bereitstellen. Es liegt nahe, diese Funktionalität aus den bestehenden Anwendungen zu entnehmen. Das haben Forscher der Software-Reengineering Gemeinde bald erkannt und einige haben schon 2004 begonnen, Methoden und Werkzeuge zu entwickeln mit deren Hilfe die Funktionalität alter Programme sich wiederaufbereiten lässt. Die ersten Forschungsprojekte für diesen Zweck 153 begannen gleichzeitig an den Universitäten Benevento und Bari in Italien, Durham in G.B. sowie Victoria und Waterloo in Kanada im Jahre 2005. Das amerikanische Software Engineering Institute hat auch damit begonnen, diese Möglichkeit der Softwarewiedergewinnung zu erforschen. Die Ergebnisse der Forschung sind auf den WCRE, der ICSM und der CSMR Konferenzen vorgestellt worden. Das RCOST Institut in Benevento hatte schon 2002 ein Projekt zur Kapselung alter COBOL Systeme in einer Webanwendung für die Gemendeverwaltung der Campania durchgeführt [7]. Forscher an der Universität Victoria haben sich spezialisiert auf die Migration von Altsysteme in Web Anwendungen. Diese Forschung wurde inzwischen auf die Migration zu einer serviceorientierten Architektur ausgedehnt [8]. Die SEI hat eine Forschungsgemeinde mit eigner Website zu diesem Zweck gegründet [9]. Dieser Autor hat über seine ersten Forschungsergebnisse im Jahre 2006 auf der CSMR in Bari berichtet [10]. Es mangelt also nicht an Forschung auf diesem Gebiet. Was fehlt, ist eine echte industrielle Anwendung. Das vorliegende Projekt ist ein erster Schritt in diese Richtung. 5. Ziele des Pilotprojektes Wie mit allen Migrations- und Integrationsprojekten, die Neugrund betreten, wurde auch hier ein Pilotprojekt vorgesehen. Pilotprojekte werden durchgeführt um neue Technologien zu testen und daraus Erfahrungswerte zu sammeln, mit deren Hilfe das IT Management Entscheidungen treffen kann. Zum einen, ist noch offen, ob das Unternehmen überhaupt in Richtung Service-orientierte Architektur gehen sollte. Diese Entscheidung hängt davon, ob genügend billige Web Services zur Verfügung stehen. In dem fraglichen Unternehmen kommt weder eine Neuentwicklung noch Standardsoftware in Frage. Eine Neuentwicklung wäre zu teuer und Standardsoftware ist nicht vorhanden. Open Source Services decken nur einen kleinen Teil der erforderlichen Services ab. Also bleibt nur das Alternativ, die Services aus der bestehenden Software zu übernehmen. Die Frage ist nur wie. Der Anwender könnte die bestehenden Online-Programme so kapseln wie sie sind. Man brauchte nur die IMS Masken durch Webseiten zu ersetzen, aber das ergibt keine Web Services sondern nur gekapselte Transaktionen. Die einzige Möglichkeit echte Web Services aus der bestehenden Software zu bekommen ist sie herauszuschneiden. Dies ist jedoch ein gewagtes Unterfangen und musste erprobt werden. Daher das Pilotprojekt. Die Ziele des Pilotprojektes sind wie folgt: 1) die Größe, Komplexität und Qualität der IMS/COBOL Programme zu messen, um den Umfang der Kapselungsarbeit abschätzen zu können. 2) die potentielle Wiederverwendung der Programme als Web Services zu messen. 3) die Möglichkeit zu prüfen, Codescheiben herauszuschneiden, um als Web Services wieder zu verwenden. 4) den Beweis zu liefern, dass es möglich ist ausgewählte Programmscheiben zu kapseln ohne die ganze IMS-TP Transaktion zu kapseln. 5) den Zugriff auf die gekapselten Web Services über Websphere zu testen. 5.1. Messung der Kandidaten-Programme Das erste Ziel war die Messung der vorhandenen Software bezüglich ihrer Größe, Komplexität und Qualität. Alle 7,297 COBOL Programme wurden mit dem Werkzeug COBAudit gemessen. Die Größenmessungen waren unter anderem die Anzahl Codezeilen, die Anzahl Anweisungen, die Anzahl Datengruppen, die Anzahl Datenelemente, die Anzahl Dateien, die Anzahl Datenbanktabellen, die Anzahl Datenbankzugriffe, die Anzahl Entscheidungsknoten, die Anzahl 154 Unterprogramme und die Anzahl Unterprogrammaufrufe. Insgesamt wurden 56 Code-Quantitäten gezählt. Die Programmkomplexität wurde im Bezug auf acht Komplexitätsmetriken gemessen, die Datenkomplexität von Chapin, die Datenflusskomplexität von Elshof, die Datenzugriffskomplexität von Card, die Schnittstellenkomplexität von Henry, die Steuerflusskomplexität von McCabe, die Entscheidungskomplexität von McClure, die Verzweigungskomplexität von Sneed, die Sprachkomplexität von Halstead. Diese Komplexitätsmaße sind in früheren Beiträgen des Autors veröffentlicht worden [11]. Es genügt hier darauf hinzuweisen, dass die Programmkomplexität als Koeffizient auf der rationalen Skala von 0 bis 1 ausgedruckt wird, mit 0,5 als mittlere Komplexität. Eine Komplexitätsnote über 0,6 zeigt, dass ein Programm übermäßig komplex ist. Eine Note unter 0,4 lässt schließen, dass die Komplexität kein Problem ist. 0 bis 0,4 steht für niedrige Komplexität, 0,4 bis 0,6 mittlere Komplexität, 0,6 bis 0,8 hohe Komplexität und über 0,8 bedeutet der Code sei nicht veränderbar. Die Programmqualität wurde im Bezug auf die Modularität, die Portabilität, die Wiederverwendbarkeit, die Konvertibilität, die Flexibilität, die Testbarkeit, die Konformität und die Wartbarkeit gemessen. Auch diese Metriken sind in der Literatur mehrfach beschrieben worden. Von besonderer Bedeutung für die Wiederverwendung als Web Service sind die Qualitätsmerkmale Modularität, Wiederverwendbarkeit und Flexibilität. Modularität versteht sich als hohe Kohäsion und niedrige Kopplung. Je weniger Verbindungen ein Codebaustein zu anderen Bausteinen hat, desto leichter ist es sie herauszuschneiden. Die Wiederverwendung ist eine Frage der Unabhängigkeit von den anderen Bausteinen sowie von der technischen Umgebung. Wiederverwendbare Bausteine haben keine IO Operationen, keine Datenbankzugriffe und keine Aufrufe fremder Bausteine. Flexibilität ist schließlich die Unabhängigkeit von fachlichen Daten. Der Code sollte von eingebauten Daten – hard coded Data – frei sein damit sie mit beliebigen Daten verwendbar ist [12] Die Messung des Codes sollte zeigen welche Programme sich als Web Services gut eignen und welche sich dafür gar nicht eignen. Sie soll auch darüber Aufschluß geben, was es kosten würde die Programme zu kapseln. Die Kapselungskosten werden vor allem von der Kapselungsfähigkeit bestimmt. Diese sei wiederum eine Frage der Modularität, der Wiederverwendbarkeit und der Flexibilität. 5.2. Bewertung der Wiederverwendbarkeit Nachdem der Source Code gemessen worden ist, ist es möglich zu bewerten ob und zu welchem Grade sich der Code wieder verwenden lässt. Im alten Code liegt sehr viel Redundanz. Er enthält auch viele Operationen die mit dem Aufbau der Benutzeroberfläche oder mit der Bedienung systeminterner Schnittstellen beschäftigt sind. Dieser Code ist in einer Web Service überflüssig, bzw. er wird durch anderen Code ersetzt. Je mehr dieser Code mit dem fachlichen Code verflochten ist, desto schwieriger ist es, den fachlichen Code davon zu trennen, d.h. der fachliche Teil des Codes sollte möglichst wenig Verbindungen zu dem anderen Code haben. Das Gleiche trifft für die Verbindungen zu fremden Modulen zu. Ein wiederverwendbarer Baustein soll weder auf globale Daten zugreifen noch fremde Funktionen benutzen. Anhand der Metrik, ist es möglich zu erkennen ob ein Programm zur Wiederverwendung geeignet ist oder nicht. Insofern als es aus überschaubaren, abgeschlossenen Codebausteinen besteht, die von außen angesteuert werden, können diese Bausteine in einem anderen Zusammenhang wieder verwendet werden. Falls das Programm einen einzigen Eingang mit einer begrenzten Anzahl 155 Parameter hat, lässt sich das Programm als ganzes wieder verwenden. Besonders wichtig für Online-Programme ist, dass ein Programm nur eine Maske bearbeitet. Diese eine Maske kann durch eine Webschnittstelle ersetzt werden. Wenn mehrere Masken der Reihe nach verarbeitet werden, sind auch mehrere synchrone Webschnittstellen erforderlich. Das eine Web Service muss vor dem nächsten beendet sein. Dies steht wiederum im Widerspruch zur Asynchronität von Web Services. Daher die Notwendigkeit die Benutzeroberflächen von einander zu entkoppeln. Durch die Bewertung der Wiederverwendbarkeit werden die Programme in drei Klassen geteilt – Programme, die grundsätzlich nicht wieder zu verwenden sind, Programme, die leicht wieder zu verwenden sind und Programme die nur nach einer Refaktorierung wieder zu verwenden sind. Falls ein signifikanter Anteil der Programme zur ersten Kategorie gehört, lohnt es sich nicht das Projekt weiter zu betreiben. In diesem Falle gab es genüg Programme in der zweiten und dritten Klasse. Allerdings müssten einige Programme refaktoriert werden und dass bedeutete ein zusätzlicher Aufwand. Nach der Refaktorierung mussten sie in der alten Umgebung wieder getestet werden um sicher zu stellen, dass die Veränderung keine Fehler verursacht hat. (siehe Abbildung 1) Reusabilty potentieller Web Services sollte > 75% sein. Kapselungsfähigkeit = 1 [ Anzahl externer Abhängigkeiten ______________________________ Anzahl Anweisungen ] Externer Abhängigkeiten = externe Daten + externe Verbindungen SYSTEM Fremde Module PROGRAMM Globale Daten Zahl der externen Verbindungen MODUL Interne Prozedur aufrufe Fremde Daten Prozeduren Zahl der externen Daten Zahl der Anweisungen Abbildung 1: Bewertung der Kapselunsfähigkeit 5.3. Code Stripping Code-Stripping ist eine Testtechnik zur Isolierung einzelner Pfade durch ein Programm damit jeder Pfad allein für sich getestet werden kann. Der eine Pfad bleibt, der Rest des Codes wird aus kommentiert. Es wird so viele Versionen eines Programmes generiert, als es zu testende Pfade hat. Diese Technik ist aus dem ESPRIT Trust Projekt hervorgegangen, dessen Aufgabe es war den Test von Realtime-Embedded Software zu messen. Da man den Code nicht instrumentieren konnte, war es erforderlich ein Pfad nach dem anderen zu testen, unabhängig von den anderen. Ein Pfad ist hier zu verstehen als ein einmaliger Weg vom Eingang bis zum Ausgang durch den Code. Er besteht aus einer endlichen Anzahl aufeinander folgender Anweisungen, wobei einige Anweisungen mehrfach wiederholt werden können. Das Code Stripping wurde automatisch mit Hilfe eines Werkzeuges bewerkstelligt. Das Werkzeug musste nur einen Startpunkt und einen Endepunkt mitgeteilt bekommen. Vom Startpunkt aus verfolgte er jeden Ablaufpfad durch den Code bis zum Ausgang, markierte die Anweisungen auf dem Pfad und blendete die anderen Anweisungen aus. Auf dieser Weise war es möglich jeder Pfad getrennt für sich zu testen. [13] 156 Im Zusammenhang mit der Kapselung von Code, wird Code-Stripping eingesetzt um Codestreifen heraus zu schneiden. Jede Codestreife ist ein Pfad, der zu einem bestimmten fachlichen Ergebnis führt. Diese Codestreifen bilden potentielle Web Services. Im alten prozeduralen Code wie auch im neuen object-orientierten Code sind die Anweisungen zur Implementierung der Geschäftsregel miteinander verwoben. Es kann vorkommen, dass eine Anweisungsgruppe, bzw ein Codeblock oder eine Methode, in mehreren Pfaden vorkommt. Mit Rücksicht auf die Flexibilität der Geschäftsprozesse ist es aber wichtig, dass ein Web Service einer einzigen Geschäftsregel entspricht. Deshalb müssen die Pfade einzeln auseinander genommen werden. Der Bediener des Werkzeuges muss für jeden Stripping Lauf das gewünschte Ergebnis identifizieren. Danach verfolgt das Werkzeug den Pfad vom Endergebnis zurück zum Ausgangspunkt und blendet den Rest des Codes aus. Was bleibt ist der Code für das Web Service. Dies wird für jede Geschäftsregel wiederholt. Am Ende gibt es mehrere Versionen des bisherigen Programms – eine für jede Geschäftsregel [14]. Dies führt zwar zu einer Vielzahl winziger Services, bietet aber ein Maximum an Flexibilität. Zur Feststellung ob dies wirklich machbar ist, war es notwendig einige Beispielprogramme zu nehmen und sie durch das Stripping Automat – COBStrip - zu senden. COBStrip erfordert eine menschliche Interaktion. Der Benutzer muss jene Ausgabedaten identifizieren, die zur Response einer Web Service gehören. Zu diesem Zweck werden alle Programmausgaben in einer Liste angezeigt. Bei Online-Programmen befinden sich jene Ausgaben normalerweise in den Datenstrukturen der Masken. Hier handelte es sich um die Message Format Service Masken in IMS-DC. Die Ergebnisdaten von Batchprogrammen liegen in den Berichten und den Ausgabedateien. Durch die Methode des Data-Slicing identifiziert das Tool alle Anweisungen, die zu den erwünschten Ergebnissen führen. Der Rest der Anweisungen wird auskommentiert. Was bleibt ist ein Rumpfprogramm bestehend aus den durchgelaufenden Anweisungen und den von diesen Anweisungen verwendeten Daten. In der Regel enthält ein solches Rumpfprogramm weniger als 20% des ursprünglichen Programmes. D.h. die potentiellen Web Services sind immer nur Teilprogramme. (siehe Abbildung 2) z.B. Kriterien der Bonitätseinstufung (Alter, Anstellung, Gehalt, u.s.w.) Prozess Parameter betroffene Daten Der W eg zum Ergebnis = Pfadausdruck Programm Ergebnis = Verarbeitungsregel (Parameter); Verarbeitungsregel = Umsetzung (Pfadausdruck); Pfadausdruck = [< Bedingungen >]n; betroffenes Programm betroffene Prozedur Prozedur z.B. If festangestellt Pfadausdruck Bedingung A Bedingung B n z.B. If Alter < 60 betroffene Anweisungen Verarbeit ungs regel Ergebnis z.B. Bonitätsstufe = Gut Abbildung 2: Pfadauswahl 5.4. Kapselung der Codestreifen Nachdem die Programmstreifen als eigene, einzelne Programme vorliegen und erfolgreich compiliert sind, kommt es darauf an, sie hinter einer WSDL Schnittstelle zu kapseln. Dafür sind zwei weitere Werkzeuge erforderlich – COBWrap und COBLink. 157 COBWrap verarbeitet die Programmstreifen, um die Bildschirmein- und ausgaben mit Aufrufen zu Methoden in den Wrapper-Modulen zu ersetzen. Außerdem werden die Argumente und Ergebnisse in einen Parameterdatenbereich verlagert. Im Falle von IMS, werden die Eingabemasken über einen Aufruf zum TP-Monitor empfangen. CALL ’DLITCOB’ USING PARAM-NR, IO-PCB, INPUT-MAP Ein ähnlicher Aufruf bewirkt das Senden der Ausgabemaske an den Endterminal. CALL ‘COBTDLI’ USING PARAM-NR, IO-PCB, OUTPUT-MAP COBWrap ersetzt diese originalen Aufrufe durch Aufrufe zum Wrapper-Modul. CALL ‘WSDL2COB’ USING PARAM-NR, XML-PCB, INPUT-MAP CALL ‘COBTWSDL’ USING PARAM-NR, XML-PCB, OUTPUT-MAP Die Daten in dem Parameterbereich werden an den Wrapper-Modul übergeben. Unter CICS sind die Anwenderprogramme Unterprogramme, die Daten in einem Kommunikationsbereich mit dem übergeordneten TP-Monitor austauscht. Im Falle von IMS ist es gerade umgekehrt. Das Anwendungsprogramm ist das Hauptprogramm, der TP-Monitor das Unterprogramm. Es ist deshalb einfacher IMS-Programme zu kapseln. Die Aufrufslogik bleibt unverändert. Nur die Namen und Parameter werden ausgewechselt. Der Autor hat schon über ein ähnliches Kapselungsprojekt bei den deutschen Sparkassen berichtet, bei dem diese Kappselungstechnik bereits erfolgreich verwendet wurde [15]. Bei jenem Projekt ging es um die Kapselung von Assemblerprogrammen und zwar ohne Werkzeug. Hier konnten die COBOL Programme mit Hilfe eines Werkzeuges automatisch gekapselt werden. Eine Kapselung dauert nur Sekunden. (siehe Abbildung 3) Input Map Online IMS-DC Program Output Map RECEIVE MAP. .......................... <Processing>...... from Terminal ........... SEND MAP COBWRAP to Terminal T ransformation W eb Service Request W SDL Input Message from Client * RECEIVE MAP. ENTRY USING MSG MO VE MSG TO DATA ..................................... <Processing> ..................................... MO VE DATA TO MSG RETURN W eb Service Response New Web Service W SDL Output Message to Client Abbildung 3: Programmkapselung 5.5. Einbindung der gekapselten Teilprogramme Der letzte Schritt auf dem Wege zu den Web Services ist die Einbindung der gekapselten Teilprogramme in die SOA Umgebung. Dies ist die Aufgabe des Werkzeuges COBLink. COBLink produziert zwei Wrapper-Module für jedes Teilprogramm – einen für die Umsetzung der Web Service Requests und einen für die Umsetzung der Web Service Responses. Die Eingabe dazu ist der Source-Code des Teilprogramms. Daraus entnimmt das Tool welche Parameter zu welchen Schnittstellen gehören. In einem Durchlauf wird ein WSDL Schema für die Eingabeparameter und den dazu gehörigen Wrapper - WSDL2COB - erzeugt. Im anderen Durchlauf wird ein WSDL Schema für die Ausgabeparameter und den dazu gehörigen Wrapper - COB2WSDL - generiert. 158 Beide Module erben von einer vordefinierten Schablone. Der erste Modul empfängt ein Web Service Request, übersetzt die XML Datentypen in entsprechenden COBOL Datentypen und überträgt sie an das COBOL Programm. Der zweite Modul übersetzt die COBOL Datentypen in entsprechenden WSDL Typen, überträgt sie in die Response und sendet die Response zurück an den Sender. (siehe Abbildung 4) External Interface Message Qeueing Component (WSDL) Data Conversion Component IO Simulation Component Internal Interface (COBOL) Abbildung 4: Aufbau des Wrappers Die vier Ergebnisse von COBLink sind die zwei WSDL Schemen – einen Request Schema und einen Response Schema – plus die beiden COBOL Wrapper-Module, die mit dem Web Service Programm zusammengelinkt werden. Das Web Service Programm wird von dem Websphere Scheduler gestartet sobald ein Service-Request in der Warteschlange auftaucht. Es ruft dann den Wrapper-Modul auf, der das Request als Datenstrom aus der Warteschlange liest und an das aufrufende Service-Programm überträgt. Wenn es fertig ist ruft das Service-Programm den Wrapper-Modul auf, um seine Ergebnisse als Response in die Warteschlange zu schreiben. Das Service-Programm übergibt dann die Steuerung zurück an Websphere. Auch diese Technik des Datenaustausches zwischen Web-Server und Web-Clients ist in einer früheren Veröffentlichung beschrieben worden [16]. Im Falle des Pilotprojektes wurde dieser letzte Schritt auf dem PC-Arbeitsplatz similiert, da eine entsprechende Hostumgebung noch nicht aufgebaut war. Es ginge nur darum das Proof of Concept zu liefern und dazu genügte es die Lauffähigkeit der gekapselten Teilprogramme auf dem PC zu demonstrieren. Natürlich sollte später die gekapselten Programme auch auf dem Host getestet werden. 6. Zusammenfassung Das Pilotprojekt für die Wiederaufbereitung alter COBOL Programme als Web Services hat bestätigt, dass es technisch möglich ist Codescheiben aus dem alten Code heraus schneiden. Diese Scheiben lassen sich auch kapseln und als Web Services in eine Service Architektur einbinden. Dennoch bleibt dieser Ansatz umstritten. Es bleiben viele offene Fragen. Eine Frage ist die der Kosten. Die Erstellung der Web Services ist zwar weitestgehend automatisiert und dadurch mit wenig Aufwand verbunden, aber es bleibt noch der Test. Bei jeder Codetransformation treten Seiteneffekte auf. Diese können wiederum zum Fehlverhalten führen. Ob ein Service sich wirklich wie erwartet verhält, wird man erst wissen wenn alle potentiellen Nutzungsarten getestet worden sind. Der Testaufwand ist hoch, aber dies gilt allgemein für Web Services. Erst muss der Service allein für sich und dann im Zusammenhang mit beispielhaften Geschäftsprozessen getestet werden. Eine weitere Frage ist die der Eignung der aus dem alten Code herausgenommenen Services. Werden sie wirklich zu den Anforderungen der neuen Geschäftsprozesse passen? Wenn nicht wäre 159 die ganze Arbeit umsonst gewesen. Diese Frage wird immer auftreten wenn die Services erstmals ohne Bezug zu bestimmten Prozessen entstanden sind. Da hier die Prozesse noch fehlen, kann keiner wissen ob die bereitgestellten Services passen werden oder nicht. Es weiteres Problem ist die feine Granularität der wieder gewonnenen Services. Ein Web Service hier entspricht einem einzigen Ergebnis – einem Wert oder einer Gruppe logisch zusammengehöriger Werte. So ist die Ermittlung einer Postleitzahl ein eigenständiger Service. Für einen einzigen Geschäftsprozess wird der Prozessverantwortlicher mehrere Hundert Services aufrufen müssen. Ob er dann noch den Überblick behält ist fraglich. Schließlich stellt sich die Frage der Wartung und –Weiterentwicklung. Da der Code in der gleichen alten Sprache mit der gleichen Qualität bleibt wird die Wartung nicht einfacher. Im Gegenteil, der Source-Code ist durch die Zerschneidung und Kapselung noch komplexer geworden und es werden noch COBOL Programmierer gebraucht um sie zu pflegen. Der Anwenderbetrieb trägt allein die Last der Erhaltung. Langfristig werden die Wartungskosten steigen. Es könnte gut sein, dass der Anwender es nach wenigen Jahren bereut, die Web Services nicht gleich neu gemacht zu haben, statt die Last der Vergangenheit mit sich in die Zukunft zu schleppen. Literaturhinweise [1] Lehman, M.: “On Understanding Laws, Evolution and Conservation in the Program Life Cycle”, Journal of Systems and Software, Vol. 1, No. 3, 1980, p. 213 [2] Seacord, R./Plakosh, D./Lewis, G.: Modernizing Legacy Systems, Addison-Wesley, Reading, 2003, p. 120 [3] Horowitz, E.: “Migrating Software to the World Wide Web”, IEEE Software, May 1998, p. 18 [4] Canfora, G./Fasolino, H./ Frattolillo, G.: “Migrating Interactive Legacy System to Web Services”, Proc. of CSMR2006, IEEE Computer Society Press, Bari, March 2006, p. 23 [5] Krafzig,D./Banke,K./Schama, D.:Enterprise SOA, Coad Series, Prentice-Hall,Upper Saddle River, N.J., 2004, p. 6 [6] Aversano, L./Canfora, G./deLucia, A.: “Migrating Legacy System to the Web”, in Proc. of CSMR-2001, IEEE Computer Society Press, Lisabon, March 2001, p. 148 [7] Bodhuin, T./Guardabascio, E./Tortorella, M.: “Migrating COBOL Systems to the WEB”, WCRE-2002, IEEE Computer Society Press, Richmond, Nov. 2002, p. 329 [8] Tilley, S./ Distante, D./ Huang, S.: ”Web Site Evolution via Transaction Reengineering”, Proc. of WSE 2004, Chicago, Sept. 2004, p. 31 [9] Kontogiannis, K./ Lewis, G. Smith, D.: “ A Research Agenda for Service-Oriented Maintenance” Workshop Proceedings of CSMR-2007, Amsterdam, 2007, p. 100 [10] Sneed, H.: ”Integrating legacy Software into a Service oriented Architecture”, in Proc. of CSMR-2006, IEEE Computer Society Press, Bari, March 2006, p. 3 [11] Sneed, H. “Understanding Software through Numbers”, Journal of Software Maintenance, Vol. 7, No. 6, Nov. 1995, p. 405 [12] Sneed, H.: “Measuring Reusability of Legacy Software” in Software Process, Vol. 4, Issue 1, March, 1998, p. 43 [13] Puhr, P./Sneed, H.: “Code Stripping as a means of instrumenting embedded systems” in EU ESPRIT Project 1258 – Report-1258-3, Liverpool, 1989 [14] Bichler,M./Kwei-Jay, L.: „Service oriented Computing“ IEEE Computer, March, 2006, p. 99 [15] Sneed,H., Majnar, R.: „“A Case Study in Software Wrapping“, Proc. of Int. Conference on Software Maintenance, IEEE Computer Society Press, Washington, D.C. Nov. 1998, p. 86-.93 [16] Sneed, H.: “Wrapping Legacy COBOL Programs behind an XML Interface”, Proc. Of WCRE-2001, IEEE Computer Society Press, Stuttgart, Oct. 2001, p. 189 160 IDENTITY MANAGEMENT IN BUSINESS PROCESS MODELLING: A MODEL-DRIVEN APPROACH Heiko Klarl1,2, Christian Wolff1, Christian Emig3 Abstract The modelling of business processes is widely used in enterprises. Though this is very common, requirements for identity management and access control are often collected separately in documents or requirement tools. Due to the business-driven background of access control, this kind of requirement should be collected at the business site's business process model. This work introduces a meta-model for modelling access control requirements at the business process level. It combines the model and its requirements, reducing the risk of inconsistencies caused by process changes. A model-driven development process utilises the enriched models for generating policies for different identity management products. 1. Introduction The success of the internet, the ongoing globalisation and resulting needs for faster communication and interaction with business partners as well as the implementation of new law and business regulations like Basel II or Sarbanes-Oxley Act [6] lead to a demand for new solutions. Serviceoriented architecture (SOA) tries to cope with those needs: The service-oriented architecture paradigm often uses the modelling of business processes, which is widely used and supported by a variety of well established notations [20, 32, 34] and tools. Despite these facts, (non-functional) requirements which are strongly related to the business process are commonly not integrated in its model. A lot of non-functional requirements arise in the area of identity management (IdM) [1], where access control is an important part. Currently, these IdM-related requirements are often “specified” in a non-formalised manner as unstructured text by the business department. If these specifications are not complete and cannot be understood by the IT security department, a complicated and error prone coordination process between both departments arises [cf. 7]. At this time, the application owner – namely the business department – loses its “requirement sovereignty”. Therefore it is highly dependent on the support of another department in formulating their own IdM requirements. Such a separation of the business process model and its related IdM requirements may easily result in inconsistencies if changes are not adapted immediately in all specification documents. In the following, we suggest a solution for this problem by enriching the business process model with a specification of IdM requirements. The model is used as the origin of a model-driven software development approach to generate concrete access control policies for 1 Media Computing, University of Regensburg, Germany 2 iC Consult GmbH, Keltenring 14, 82041 Oberhaching, Germany 3 Cooperation & Management, University of Karlsruhe (TH), Germany 161 service-oriented architectures. This work is based on a cooperation project between iC Consult GmbH, an independent service provider in the area of identity management, the department of Media Computing at the University of Regensburg and the research group Cooperation and Management at the University of Karlsruhe. The paper is organised as follows: Section 1 gives a short introduction to identity management and its relation to business process management. In section 2, we introduce our UML2 Profile for IdM as well as the Web Services Access Control Markup Language (WSACML), an access control meta-model for service-oriented architecture. Based on both specifications, a model-driven policy development process is described. The application to a real business scenario from the banking domain is shown in section 3. Section 4 discusses related work, and section 5 concludes the paper. 1.1. Main Aspects of Identity Management With the increasing complexity of the IT landscape in enterprises and the penetration of nearly all critical business processes by information technology, identity management is a key factor and one of the main building blocks of IT security [13]. IdM comprises authentication of identities, the authorisation of resource access as well as the logging of all events relevant for auditing requirements. These three pillars of IdM are embedded in several processes in order to mitigate its complexity. Policies containing permissions build the base for access control decisions [27]. They state whether an authenticated subject is allowed to access or interact with an object or a resource within the IT system. In the scope of regulations (e.g. the Sarbanes-Oxley-Act or Basel II), the requirements for the administration and documentation of access permissions and policies lead to a demand for sophisticated IdM solutions. A reference architecture for such a solution is shown in [3]; [17] describes an architecture for IdM in federated environments. 1.2. Identity Management and Business Process Modelling The importance of business processes models became obvious with the idea of business process reengineering [15] in the 90ies and with the upcoming of the service-oriented architecture paradigm [36]. The nearly arbitrary combination of single sub-processes or loosely coupled services to business processes in the sense of service-orientation is only possible on the base of meaningful and executable models. This enables enterprises to cope with market challenges and new business regulations in a flexible and agile way [36]. The focus lies on the optimal support of the business process whereas the IT plays a supporting role in the background. The modelling of business processes can be done in different notations like Event-driven Process Chains (EPC) [20], the Business Process Modeling Notation (BPMN) [32] or the behaviour diagrams of the Unified Modeling Language (UML) [34]. The short lifecycle of business processes and their opening to other businesses in the context of B2B-scenarios requires a constant adoption of IdM requirements in order to reach and guarantee high security standards [21]: On the one hand, functional specifications regarding identities, roles and permissions are constantly changing, on the other hand, changing specifications of the organisational layer, e.g. for supporting privacy or avoiding corruption play an increasing role in enterprise security. In order to meet these demands, traditionally hard coded security mechanisms are replaced by dynamic policies which are changeable at runtime. Closing the gap between specification of IdM requirements in documents and requirement management tools and the business process' model is still not done, resulting in different complementing specifications [11, 16, 25, 37]. The coupling of the business process' models and its security requirements will ensure a consistent state over all changes – functional ones as well as 162 those affecting security issues. The management of security relevant aspects will be tied stronger to the business process' development, avoiding inconsistencies in its protection. The business department should be supplied with tools not only for modelling their processes, but also for integrating their IdM requirements in those models. 2. Modelling and Transforming IdM Requirements within Business Processes In order to cope with the problems described above and to force the coupling of business process and its security requirements, we propose the modelling of requirements in business process models. A model-driven approach that generates concrete security policies based on the models will be introduced in the following sections. 2.1. The Development Process and its Relation to Model-driven Architecture The development process typically starts with defining the business process in the business department. Preparatory steps like use-case analyses or textual specifications etc. are not in the focus of this paper: Our contribution starts with the business process already modelled and we see this point as the computational independent model (CIM) in the sense of OMGs' Model-driven Architecture (MDA) [31]. In this view, the CIM contains all information of the business process – enriched with security specifications based on the UML2 profile for IdM. A semi-automatic transformation process with possible manual additions leads to the platform independent model (PIM), containing only security specifications at a platform neutral level. A meta-model for this has been presented as WSACML in [8]. Its generic design does not include any (security) product specific elements, so that the last transformation step can create platform specific code (PSC) for different platforms like CA SiteMinder or IBM Tivoli Access Manager. 2.2. Securing a Business Process by the UML2 Profile for Identity Management The business department should be able to define its own or compliance-driven IdM requirements, using their specific domain knowledge in business process modelling. This enables a fully modeldriven software development process, starting with the modelling of IdM requirements in the business department and resulting in security policies for a specific software system. We utilise UML behaviour diagrams, especially activity diagrams, used for modelling data- and control flows as well as workflows [4, 35]. UML itself is based on a meta-model supported by a variety of tools and known and accepted in enterprises. The UML profile mechanism offers a lightweight approach to extend this meta-model. This can be done by adding new elements for special domains without losing UML’s tool support. Stereotypes do not change the meta-model but extend and specify existing UML meta-classes for special use-cases. New elements are named and can immediately be used as the profiles' elements. Constraints are used in order to restrict elements in their behaviour, and can be expressed in prose, (pseudo-) programming languages or in dedicated languages like OCL (Object Constraint Language) [33]. Constraints must not be in conflict with inherited constraints of the meta-class. Tagged values are key-value-pairs, enriching stereotypes with additional information. UMLs' syntax and semantic is not touched by UML profile extensions. The UML2 profile for IdM supports the modelling of access control policies within activity diagrams. In case of a business process it offers the possibility to represent its behaviour as well as its constraints for accessing certain actions. The model of the UML2 profile for IdM is shown in Figure 1. The element «IdMAction» extends the UMLs' activity diagram element «action», indicating that this must be secured by the IdM infrastructure. It contains the attributes complianceClassifier and securityClassifier providing the possibility to classify the element 163 according to its compliance and security guidelines. Those are defined at the enterprise architectural level. The container element «Policy» links single «Permission» elements in a disjunctive manner; this allows the reuse of «Permission» elements in different «Policy» elements or policies. «Policy» owns the same classification attributes as «IdMAction». In order to avoid conflicts due to contradicting policies as well as to reduce complexity at the business process level, only one policy may be assigned to an «IdMAction». «Permission» elements encapsulate one or more «Assertion» elements for covering one access control situation. The element «Assertion» contains the positive access control statement, allowing access on resources. This means that every access authorisation has to be defined in a dedicated permission. An «Assertion» element aggregates «SubjectAttribute», «ObjectAttribute», «EnvironmentAttribute», «InputParameter» and «Constant». <<metaclass>> Action <<stereotype>> IdMAction [Action] <<metaclass>> ActivityNode 1 1 -complianceClassifier -securityClassifier <<stereotype>> Policy [ActivityNode] <<metaclass>> ActivityPartition 1 -complianceClassifier -securityClassifier 1 <<metaclass>> ActivityGroup 1 1 <<stereotype>> IdMActivityGroup [ActivityGroup] 1 <<stereotype>> IdMRole [ActivityPartition] 1..* 1 * <<stereotype>> DraftedPermission 1..* <<stereotype>> Permission * -Comment 1..* * 1..* <<stereotype>> Assertion 1 * <<stereotype>> SubjectAttribute * <<stereotype>> ObjectAttribute * <<stereotype>> EnvironmentAttribute * <<stereotype>> InputParameter * <<stereotype>> Constant Figure 1: The UML2 Profile for Identity Management The object being accessed is described by the «ObjectAttribute». A sophisticated enterprise architecture with well-defined business objects types supports the selection of relevant object attributes tremendously. «EnvironmentAttribute» contains metadata such as time, date and the systems conditions whereas «InputParameter» specifies input data. For comparing attributes with specific values, «Constant» is used. In case the business department was not able to to properly define an adequate policy with these modelling concepts, a «DraftedPermission» contains access control statements without formalisation, i.e. descriptions of the desired behaviour in prose. These drafts must be refined by business security analysts resulting in a valid set of «Permission» and «Policy» elements. «IdMRole» extends the concept of activity partitions in order to assign business roles to «IdMAction» elements. The same pieces of information can also be covered by utilising «SubjectAttribute» to describe the business role of the accessing subject – which reduces the visual complexity in case of dozens of roles involved in a business process. We consider the description 164 of roles not in the classical role-based access control (RBAC) [10] manner but define a business role as a set of subjects attributes as described in [42]. «IdMActivityGroup» allows grouping of elements for assigning a «Policy» or «DraftedPermission» only once to a set of elements. An overview regarding the elements' constraints defined in the meta-model is given in [22]. 2.3. WSACML – An Access Control Meta-model for Web Service-Oriented Architecture Looking at the mass and complexity of the existing and upcoming specifications in the web service security area like WS-Security, WS-Trust, SAML, eXtensible Access Control Markup Language (XACML) or the Liberty Alliance’s stack proposal [12, 30], it is comprehensible that software developers often neglect the web service security part. Additionally, state-of-the-art IdM suites are not yet prepared for web service-oriented architectures and their accompanying standards [29]. At the same time application servers often do not yet support necessary combinations of relevant IdM standards. This is why currently existing web services in most cases have little or no security features. In [8] we have introduced WSACML, an access control meta-model for web serviceoriented architectures which is utilised as meta-model for the platform independent model (PIM). It eases its use, as complexity like in XACML is reduced. WSACML describes policies at the PIM level, which means that they are specified with detailed technical resource descriptions etc. but platform specific details and notations for security products are not covered. This is done by a last transformation shown in detail in [9]. 2.4. From the Business Process to Concrete Security Policies – The Transformation Process CIM PIM PSM/PSC UML2 Profile for IdM [22] WSACML [8] Product Policies [9] Figure 2: Overview of Model-driven Policy Development In order to create security policies for a certain IdM product, we have implemented a prototypical model-driven transformation process with two transformations (cf. Figure 2). To ease the implementation process we utilise a XML-based transformation approach. We generate XML schema definitions (XSDs) based on the meta-models for the CIM and PIM introduced in the previous sections and use them as a template for valid policy information. We start with a business process that has already been modelled and which has been annotated with security policies and extract security-specific information to a XML file (cf. Listing 1). In a second step a Java-based application parses this XML-file structured according to the rules of our XSD and transforms the elements according to the mapping rules shown in Table 1. Then it checks the compliance with constraints described in [22]. During the transformation process a manual enrichment has to be done by a business security analyst. This analyst should be able to provide additional information for a fine tuning of the security requirements for the platform independent model. 165 UML2 Profile for IdM WSACML IdMAction Manually resolved to service description and mapped to ServiceOperationBinding IdMRole Builds some parts of the SubjectAttribute IdMActivityGroup Assignment of the same policy to all IdMActions in this area Policy Policy DraftedPermission Empty Policy containing comments, which must be refined by a business security analyst. Permission Rule Assertion Assertion *Attribute *Attribute The * stands for all attributes shown in the meta-model of the UML2 profile for IdM (cf. Figure 1) Table 1: Mapping rules for the UML2 Profile for IdM to WSACML The first transformation process results in a WSACML policy shown in Listing 2. Utilising the transformation described in [9], the generation of platform specific code (PSC) comes into play: WSACML policies are transformed into security policies for a certain product. This requires knowledge on the policy-model of the specific security software product. Further information will be provided in [9]. Currently, our transformer tool supports the generation of CA SiteMinder policies. A support for IBM Tivoli Access Manager is under development at the moment. <SecureBusinessProcess> <idmAction complianceClassifier="1" securityClassifier="2" name="Override Scoring Exception"> <policyLink policyName="Override Scoring Policy" /> </idmAction> <policy name="Override Scoring Policy"> <permissionLink permissionName="ScoringPermission"/> </policy> <permission name="ScoringPermission"> <assertion assertionFunction="equal"> <subjectAttribute value="roleName" /> <constant value="AM in chief " /> </assertion> <assertion assertionFunction="equal"> <objectAttribute value="exception.type" /> <constant value="warning" /> </assertion> <assertion assertionFunction="less-than"> <objectAttribute value="exception.score" /> <constant value="4" /> </assertion> </permission> </SecureBusinessProcess> <PolicyContainer> <policy name="Override Scoring Exception" ruleSelectionAlgorithm="--TODO--" serviceOperationBinding ="--TODO--Override Scoring Exception"> <ruleref>ScoringPermission</ruleref> </policy> <rule name="ScoringPermission"> <assertion assertionFunction="equal"> <subjectAttribute value="roleName" /> <constant value="AM in chief" />" /> </assertion> <assertion assertionFunction="equal"> <objectAttribute value="exception.type" /> <constant value="warning" /> </assertion> <assertion assertionFunction="lessthan"> <objectAttribute value="exception.score" /> <constant value="4" /> </assertion> </rule> </PolicyContainer> Listing 1: UML2 Profile for IdM (XML representation) Listing 2: WSACML 3. Example: Securing a Banking Process In the banking area business processes are changing often, caused by a very dynamic and customerdriven market environment. As a typical example we choose the opening process for a current account. As the presentation of the complete process might well go beyond the scope of this paper, we show only sections of the process as this should be enough to get an idea of how our method is applied to secure the business process. Figure 3 shows the business process model with security166 related information added. After a general contract has been created by an account manager the opening of a current account is checked. When the application for a current account is formally correct, a credit rating service is called, followed by a scoring by another service. These actions are secured by the Check Account Opening Policy. The policy limits the roles that are allowed to execute those actions to the role 'Account manager' and it may have some contextual restrictions like 'Opening a current account is allowed only at the office times from 7am to 7pm'. If there are no exceptions, the current account will be created; otherwise the opening is delegated to the clerk's supervisor who may override some kind of exceptions (exception score lower than four). This is represented by the Override Scoring Policy shown in Listing 1 which limits the executing role to ‘Account manager (AM) in chief’ and the exception level lower to four. <<IdMActivityGroup>> <<IdMAction>> Create General Contract <<IdMAction>> Check Account Opening <<IdMAction>> Call Credit Rating Service <<IdMAction>> Call Scoring Service <<Policy>> Check Account Opening Policy <<DraftedPermission>> Override Scoring Policy <<IdMAction>> Override Scoring Exception Figure 2: Secured Business Process Model for Opening a Current Account 4. Related Work Concerning the integration of requirements in models, many papers have been published recently. The state of the art can be divided into two major parts: On the one hand high level models for usage at business departments, on the other hand IT-centric models like UML class diagrams that are enriched by annotations and requirements. In the area of models for usage at the business site [23] extends the UML activity diagram enabling a modelling of business and performance goals for use with concepts like balanced score card. An extension for the UML activity diagram to model event-driven process chains (EPC) is shown in [24]. In both papers UML is extended via its profile mechanism. In the area of information security a meta-model for descriptive collection of requirements is shown in [37, 38]. It is applied to the UML activity diagram via an UML profile as well as to BPMNs' meta-model. Stereotypes like SecurityAuditing or SecurityRequirement are introduced for usage in the business process model in order to visualise requirements for auditing or the core security requirements like authentication, authorisation and non-repudiation. Nevertheless, most of this work remains at a descriptive level. The stereotypes introduced are just simple annotations comparable with classified comments. In [39] Rodríguez et al. propose the generation of use case views out of business process models which are examined for security requirements. As in their previous work [37, 38], there are no possibilities to specify requirements directly in the business process model and the proposed approach can be only used to find security problems at a high level view. Round trip engineering is missing, so that results found in the use case diagrams can not be added to the processes' model. In [40] another solution for modelling security goals in BPMN is introduced: A generic security model captures the relations between basic entities like objects, attributes, interactions and effects. The model includes views on the enterprise architectural space which allows connecting elements 167 from different perspectives. However, it lacks a relationship with the model-driven approach as well as definitions of how policies can be formulated, stored and administrated. In their previous work ([41]) Wolter et al. have proposed an extension of the BPMN for including authorisation constraints which are strongly focused on a separation of duties (SoD). Utilising XSLT transformations, the XML representation of the enriched business process is used for generating XACML policies. However, they do not discuss the modelling of complex access control scenarios. In contrast to our work, their target model is XACML – this is basically a good idea as it is a standard – but as the application of XACML policies in standard access control products is only partly possible, it would be better to generate concrete policies for certain products. In the area of workflow security, some further work has been published. In [14] a UML based approach for applying security requirements to the Web Service Choreography Description Language (WS-CDL) is proposed. A UML model of the workflow is enriched with security artefacts and could be translated to XML code files that comply with web services standards. As this enrichment is done on a technical level, the procedure will not be viable for the typical business department. Bertino et al. present in [2] how Web Services Business Process Execution Language (WS-BPEL) is enriched by authorisation constraints and authorisation information for access control. They introduce the Business Process Constraint Language (BPCL) which allows formulating the authorisation constraints. A WS-BPEL engine has been extended to be able to interpret these access control constraints. BPCL is limited to users, roles and activities. Attributebased access control which we propose as the optimum for service-oriented architecture is not supported. Due to its technical focus, it is not adequate for use at a business department. Patterns for securing web services are proposed in [18]. The so called idioms were applied to orchestrated services and contain technical solutions and templates for predefined threat scenarios. They cover non-functional requirements but only at the orchestration level. An explicit possibility for modelling access control policies or IdM requirements is not given. Looking at IT-centric research, in [19] an UML profile called UMLsec for modelling safety critical systems is shown. It supports the enrichment of UML class models with security relevant information. Its focus is to support software developers who already are knowledgeable in the security area. The recording of access control policies, especially at the business departments' level is not covered. An UML-based modelling notation combined with a notation for specifying access control models is shown in [26]. This approach is also placed rather late in the software development process, as the requirements are modelled at the class diagrams' level. In [5], Breu et al. propose a model-based development of access policies combining a predicative language (OCL) with XACML as an access policy standard. Access permissions can be specified for methods and method categories at a technical level. A Java-based tool allows the generation of XACML policies. Like other approaches mentioned before, the technical focus of this approach will most likely prevent its application in the context of business departments. Neubauer et al. cover in [28] aspects of secure business processes and its administration. The roadmap of a secure business process is shown in its different stages regarding the inclusion of security aspects. At the second stage he describes the security enriched business process as a base for workflow systems. Looking at related work, there is on the one hand a very strong focus on business aspects with no possibilities of integrating security requirements. On the other hand the modelling of security requirements is possible on a deeper, workflow or technical level. These solutions often require specialised knowledge of modelling and the architectural aspects of software systems as well as a wide and detailed knowledge on security solutions. Altogether, a gap between modelled business processes at the business departments’ site and documents and tools containing the business process' security specifications remains. 168 5. Conclusion In this paper, we propose a model-driven development process for the creation of access control policies in the context of service-oriented architectures. The development starts with the business process model at the business departments' level, where computational independent process models are enriched with elements for specifying requirements for identity management. Transformation processes translate the model to concrete security policies for different commercial products. The novel aspect of this approach is the direct application of IdM requirements specifications to business process specifications. Thus, the model-driven generation of access control policies can be supported. There is no need for document-based requirement specifications, because all requirements are captured in the business process model where the domain knowledge is available – in the business department. This work lays the fundament by proposing how access control policies can be specified in business processes. Future work will be done on improving the graphical modelling of the business process and its security requirements. The business department will be supported by easy to handle tools, with optimised usability for modelling security enriched business processes. The modelling process will be complemented by utilising policy and business objects repositories to benefit from (re)using existing data. Another aspect being worked on will be the checking of secured business process models for being in compliance with the enterprise’s security standards or law regulations. 6. References [1] H. Bagheri and S.-H. Mirian-Hosseinabadi. Injecting security as aspectable NFR into software architectture. In Proc. 14th Asia-Pacific Software Engineering Conf., pages 310–317. IEEE Computer Society, 2007. [2] E. Bertino, J. Crampton, and F. Paci. Access Control and Authorization Constraints for WS-BPEL. In IEEE Int’l Conf. on Web Services, pages 275–284. IEEE Computer Society, 2006. [3] D. Blum. Identity Management. Technical report, Burton Group, Nov. 2005. [4] M. Born, E. Holz, and O. Kath. Softwareentwicklung mit UML 2. Addison-Wesley, München, 2004. [5] R. Breu, G. Popp, and M. Alam. Model based development of access policies. International Journal on Software Tools for Technology Transfer, 9(5–6):457–470, Oct. 2007. [6] M. Burling. The key to compliance. Database-and-Network-Journal, 35(3):17–18, 2005. [7] S. Cormack, A. Cater-Steel, J. H. Nord, and G. D. Nord. Resolving the troubled IT-business relationship from a cultural perspective. In Proc. 12th Australasian Conf. on Information Systems, Australia, Dec. 2001. [8] C. Emig, F. Brandt, S. Abeck, J. Biermann, and H. Klarl. An Access Control Metamodel for Web ServiceOriented Architecture. In Proc. Int’l Conf. Software Engineering Advances. IEEE Computer Society, Aug. 2007. [9] C. Emig, S. Kreuzer, S. Abeck, J. Biermann, and H. Klarl. Model-Driven Development of Access Control Policies for Web Services, In IASTED Int’l. Conf. on Software Engineering and Applications, Florida, 2008 [10] D. F. Ferraiolo, R. Sandhu, S. Gavrila, D. R. Kuhn, and R. Chandramouli. Proposed NIST standard for role-based access control. ACM Transactions on Information and System Security, 4(3):224–274, Aug. 2001. [11] D. Firesmith. Engineering Security Requirements. Journal of Object Technology, 2(1):53–68, 2003. [12] C. Gutiérrez, E. Fernández-Medina, and M. Piattini. A Survey of Web Services Security. In Computational Science and Its Applications - ICCSA 2004, volume 3043 of LNCS, pages 968–977. Springer, Apr. 2004. [13] S. Götzfried. Identity Management. Untersuchungen zum Einsatz von Identity Management-Systemen in Unternehmen und Organisationen. Master’s thesis, Univ. Regensburg, Informationswissenschaft, 2007. [14] M. Hafner and R. Breu. Realizing Model Driven Security for Inter-organizational Workflows with WSCDL and UML 2.0. In Model Driven Engineering Languages and Systems, volume 3713 of LNCS, pages 39–53. Springer, 2005. [15] M. Hammer. Reengineering work: don´t automate, obliterate. Harvard Business Review, 68(4):104–112, 1990. [16] G. Herrmann and G. Pernul. Viewing business-process security from different perspectives. International Journal of Electronic Commerce, 3(3):89–103, 1999. 169 [17] W. Hommel. Architektur- und Werkzeugkonzepte für föderiertes Identitäts-Management. PhD thesis, Fakultät für Mathematik, Informatik und Statistik der Ludwig-Maximilians-Universität München, 2007. [18] T. Imamura and M. Tatsubori. Patterns for Securing Web Services Messaging. In OPSLA Workshop on Web Services and Service Oriented Architecture Best Practice and Patterns, 2003. [19] J. Juerjens. Secure Systems Development with UML. Springer, 2005. [20] G. Keller, M. Nüttgens, and A.-W. Scheer. Semantische Prozessmodellierung auf der Grundlage Ereignisgesteuerter Prozessketten (EPK), volume 89. Universität des Saarlandes, Jan. 1992. [21] H. Klarl. Modellgetriebene, mustergestützte Sicherheit in serviceorientierten Architekturen. InformatikSpektrum, 30(3):175–177, June 2007. [22] H. Klarl, C. Wolff, and C. Emig. Abbildung von Zugriffskontrollaussagen in Geschäftsprozessmodellen. In Modellierung 2008 – Verhaltensmodellierung: Best Practices und neue Erkenntnisse, Berlin, Mar. 2008. [23] B. Korherr and B. List. Extending the UML 2 Activity Diagram with Business Process Goals and Performance Measures and the Mapping to BPEL. In Advances in Conceptual Modeling - Theory and Practice, volume 4231 of LNCS, pages 7–18. Springer, 2006. [24] B. Korherr and B. List. A UML 2 Profile for Event Driven Process Chains. In Research and Practical Issues of Enterprise Information Systems, volume 205 of IFIP International Federation for Information Processing, pages 161–172. Springer, 2006. [25] M. N. Kreeger and I. Duncan. Engineering secure software by modelling privacy and security requirements. In 39th Int’l Carnahan Conf. on Security Technology, pages 37–40, Oct. 2005. [26] T. Lodderstedt, D. A. Basin, and J. Doser. SecureUML: A UML-Based Modeling Language for ModelDriven Security. The Unified Modeling Language, volume 2460 of LNCS, pages 426–441. Springer, 2002. [27] A. Matheus. How to Declare Access Control Policies for XML Structured Information Objects using OASIS’ eXtensible Access Control Markup Language (XACML). In Proc. 38th Annual Hawaii Int’l Conf. on System Sciences, page 168a. IEEE Computer Society, 2005. [28] T. Neubauer, M. Klemen, and S. Biffl. Secure Business Process Management: A Roadmap. In Proc. First Int’l Conf. on Availability, Reliability and Security, pages 457 – 464. IEEE Computer Society, Apr. 2006. [29] M. Neuenschwander. Enterprise Identity Management Market 2006–2007. Burton Group, Nov. 2006. [30] H. R. M. Nezhad, B. Benatallah, F. Casati, and F. Toumani. Web Services Interoperability Specifications. Computer, 39(5):24–32, 2006. [31] Object Management Group, Inc. Model Driven Architecture (MDA). http://www.omg.org/cgibin/apps/doc?ormsc/01-07-01.pdf, July 2001. [32] Object Management Group, Inc. Business Process Modeling Notation (BPMN) Specification. http://www.bpmn.org/Documents/OMG Final Adopted BPMN 1-0 Spec 06-02-01.pdf, 2006. [33] Object Management Group, Inc. Object Constraint Language – Version 2.0. http://www.omg.org/technology/documents/formal/ocl.htm, May 2006. [34] Object Management Group, Inc. Unified Modeling Language: Infrastructure – Version 2.1.1. http://www.omg.org/docs/formal/07-02-06.pdf, Feb. 2007. [35] Object Management Group, Inc. Unified Modeling Language: Superstructure – Version 2.1.1. http://www.omg.org/docs/formal/07-02-05.pdf, Feb. 2007. [36] J.-P. Richter, H. Haller, and P. Schrey. Serviceorientierte Architektur. Informatik-Spektrum, 28(5):413–416, Oct. 2005. [37] A. Rodríguez, E. Fernández-Medina, and M. Piattini. Security Requirement with a UML 2.0 Profile. In Proc. First Int’l Conf. on Availability, Reliability and Security, pages 670–677. IEEE Computer Society, 2006. [38] A. Rodríguez, E. Fernández-Medina, and M. Piattini. A BPMN Extension for the Modeling of Security Requirements in Business Processes. IEICE-Transactions on Info and Systems, E90-D(4):745–752, 2007. [39] A. Rodríguez, E. Fernández-Medina, and M. Piattini. Towards CIM to PIM Transformation: From Secure Business Processes Defined in BPMN to Use-Cases. In Business Process Management, volume 4714 of LNCS, pages 408–415. Springer, Sept. 2007. [40] C. Wolter, M. Menzel, and C. Meinel. Modelling Security Goals in Business Processes. In Modellierung 2008, volume P-127 of LNI, pages 201–216, Bonn, Germany, Mar. 2008. Köllen. [41] C. Wolter, A. Schaad, and C. Meinel. Deriving XACML Policies from Business Process Models. In Web Information Systems Engineering, volume 4832 of LNCS, pages 142–153. Springer, 2007. [42] E. Yuan and J. Tong. Attributed based access control (ABAC) for Web services. In Proc. IEEE Int’l Conf. on Web Services. IEEE Computer Society, July 2005. All web references were checked on 28th July 2008. 170 MODEL-DRIVEN DEVELOPMENT OF SERVICEORIENTED BUSINESS APPLICATION SYSTEMS Stefan Kätker1, Susanne Patig2 Abstract The industrial development of real-world business applications that are based on service-oriented architecture (SOA) is subject to technological and organizational requirements. The paper describes an approach that tackles these requirements by ideas from model-driven development (MDD). The approach consists of a metamodel accompanied by modeling guidelines, a governance process ensuring that these guidelines are kept, and a modeling tool to support model creation and governance process. The successful application of the presented approach during the development of SAP’s Business byDesign solution shows that the benefits of MDD in software industry lie beyond code generation and outweigh modeling effort. 1. Motivation Application systems rely on service-oriented architecture (SOA) in three ways: 1) as a composite application for a particular purpose by integrating or extending existing SOA-based systems, 2) by being a priori and completely designed based on SOA principles or 3) by ex post providing services as external interfaces to their existing, evolved implementation. The second and third SOA usage types are perfect starting points for the first one. This paper introduces a methodology that supports the ‘SOA by Design’ development of application systems in a large, international project setting. The approach is called the eSOA Modeling Methodology and was developed by SAP AG. To tackle the organizational and technological requirements of the development context (see Section 2), ideas from model-driven development were used. Model-driven development (MDD) is characterized by a tight coupling between the descriptions of a software system (models) and the system’s implementation [7]: Software development starts from a set of models representing distinct views on software architecture [5]. These abstract models are successively transformed into platform-specific ones – with source code at the end. The benefits of applying MDD in software industry do not only stem from code generation, but also from the models that constitute an easy to understand lingua franca among the development teams [13]. The eSOA Modeling Methodology consists of a metamodel, a governance process and a tool environment; all of this is explained in Section 3 and related to the state of the art in Section 4. The approach has been applied in the development of the application system ‘SAP Business byDesign’ – SAP’s ERP solution for small and medium enterprises, which was designed and implemented by 1 2 SAP AG, AP Engineering - Process Modeling, Dietmar-Hopp-Allee 16, D-69190 Walldorf, Germany. University of Bern, IWI, Engehaldenstrasse 8, CH-3012 Bern, Switzerland. 171 strictly following SOA. The experience gained in this process is used to evaluate the methodology (Section 5); some critical points are shown. 2. Requirements of the Software Development Process In the development process of the SAP ‚Business byDesign’ application system, the following three groups of requirements had to be considered: 1) Large-scale commercial software development often involves huge, decentralized teams. For example, more than 800 people from 3 continents participated in the development of SAP ‘Business byDesign’. Managing such a project requires clear boundaries between the development teams. Moreover, a common language for all developers is needed. 2) The development of a (functionally and technologically) new software system requires methodological support for the whole software lifecycle including requirements engineering, system design, system implementation, deployment and maintenance. Model-driven development satisfies these requirements, given that the models exactly match the implementation. This can be guaranteed by either source code generation form models or organizational means. 3) As a technological innovation, the new software system should be based on service-oriented architecture, which means that the software system provides its functionality by interacting 3 (software ) services. Services reside on the implementation level, i.e., they are (software2) components that completely encapsulate the implementation of some functionality [16]. From the outside, only the description of this functionality (the interface) is visible. Interfaces group the operations offered by the service and the operation signatures (input and output parameters and their respective types). During the development of a SOA-based application system, the rather unstructured functional requirements of varying granularity must be broken down into welldefined and consistently structured components and interfaces. These requirements are satisfied by the eSOA Modeling Methodology as follows: 1. Metamodel (see Section 3.1) and content creation guidelines (see Section 3.2) The metamodel contains all artifacts (metaclasses; see Section 3.1.1) to describe the serviceoriented architecture of a (business) application system, i.e., the software components, their interfaces and their relationships to other components and to the system environment. The metamodel is accompanied by content creation guidelines for the identification, design and implementation of metaclass instances. The various views on software architecture [5] are realized by arranging the metaclasses into several model types (see Section 3.1.2). 2. Governance process (see Section 3.2): To ensure that the modeled content is consistent and complies with the guidelines, a central governance process is required. All models and entities have to pass a review before implementation. The governance process also covers changes during the development cycle. Software changes without subsequent model changes and governance approval are not allowed. 3. Modeling tool environment (see Section 3.3): Metamodel and content creation must be supported by a tool environment that implements all metaclasses and model types of the eSOA Modeling Methodology. The modeling tools create the eSOA repository for the modeled contents and include facilities to generate proxy code. 3 We skip this term in the following - for brevity and since it is clear from the context. 172 3. eSOA Modeling Methodology 3.1. Metamodel 3.1.1. eSOA Metaclasses SAP ‘Business byDesign’ relies on an enriched form of SOA called Enterprise SOA (eSOA, for short) [16], where the business functionality (business scope) of an application system is completely and solely exposed via services. The services are provided by business objects and process components. Business objects are the metaclasses with the finest granularity; they structure the functionality of an application system. A Business Object (BO) is a set of entities with common characteristics and behavior that represents well-defined business semantics [12], [16]. The functionality of business objects can be accessed via services. Typical business objects are, e.g., ‚sales order’ and ‚customer invoice’ (see Section 3.1.2). Each business object belongs to exactly one process component (see Fig. 1). Process components group business objects and are the building blocks for business processes. A Process Component (PC), for example, ‚Sales Order Processing’ (see Fig. 3 in Section 3.1.2), is a modular, context independent, reusable software package that exposes its functionality (which may span several database transactions) as (compound) services. Process components are collected into deployment units (see Fig. 1). A Deployment Unit (DU) is a piece of software – like ‚Customer Relationship Management’ – that can be operated independently on a separate physical system. Usually, deployment units are jointly shipped. They are decoupled from each other via enterprise services and process agents (see below). Logical Units of Work are not created across deployment units. The exposed services are abstractly described by service operations. A service operation is a specification of a function (e.g., ‚create sales order’) with a set of message types assigned as its signature. Semantically related service operations are combined into service interfaces (SI) that specify the functionality offered (inbound SI) or used (outbound SI) by process components (see Section 3.1.2, Fig. 3). Depending on the interacting partners, it is distinguished between A2A and B2B service interfaces, intended for the communication between applications of one business partner (A2A) or between systems at several business partners (B2B), respectively. Process Agents (PA) are pieces of software responsible for the interaction between process components and across deployment units. They relate the sending (outbound PA) or receiving (inbound PA) of XML messages to changes of the involved business objects (e.g., status update, creation or deletion of BO instances) and, hence, intermediate between business objects and service interfaces (see Fig. 1). Fig. 3 in Section 3.1.2 provides an example for the use of process agents. At the finest level, business objects are structured into (BO) nodes. A business object node represents a semantically related group of elements that can be treated as a part of the business object. For example, the business object ‘sales order’ may comprise the nodes ‘sales order item’, ‘price calculation’ and ‘delivery terms’. Business object nodes are typed by data types. Fig. 1 shows the abstract syntax (i.e., the constructs and their allowed connections [8], [7]) of the eSOA metamodel metaclasses as an UML class diagram. This abstract syntax is accompanied by eSOA Content Creation Guidelines (see Section 3.2) for the identification, design and implementation of metaclass instances. The concrete syntax of the metaclasses, i.e., their notation [8], [7], is defined by the eSOA model types, which are described in the next section. 173 Deployment Unit 1..* Inbound Compound Service Interface 1..* 1..* 1 1..* Inbound 1..* 1 Process Agent leads to Process Component 1..* Business Object changes 1..* 1..* 1..* 0..1 Outbound Process Agent 1 1..* triggers uses 1..* 1 Outbound Compound Service Interface 1 Business Object Node * 1..* Data Type * 1..* 1..* Inbound Operation 1..* * 1 1..3 Message Type 1..3 1 Outbound Operation Fig. 1. Abstract Syntax of the Main eSOA Metamodel Artifacts. 3.1.2. eSOA Model Types This section explains the main eSOA model types. According to ANSI/IEEE [2], they cover the structural (PC Models, BO Models), behavioral (Integration Scenario Models, PC Interaction Models) and context (Integration Scenario Models) viewpoints on software architecture. The model types are illustrated by the scenario „Sell from stock”, which describes the fulfillment of a sales order for material from stock (Fig. 2 to Fig. 4). Fig. 2. Sample Integration Scenario Model for ’Sell from stock‘ (© SAP AG). 174 Integration Scenario Models (see Fig. 2) are the first ones created. They spring from the functional requirements and describe the realization of a business process by eSOA. An integration scenario consists of deployment units, process components and the necessary interactions among them. It is distinguished between direct interactions by local function calls, service interactions that amount to message exchange via the SAP Exchange Infrastructure (XI), and other interactions – executed by, e.g., remote function calls. All types of interactions are represented by arrows. Process components that do not belong to SAP ‘Business byDesign’ are also depicted. For example (see Fig. 2), the processing of sales orders is a typical task of customer relationship management and often the result of a sales quote. Each placed sales order corresponds to a purchase order at the customer. Thus, the DU ‚Customer Relationship Management’ consists of two PC (‚Sales Quote Processing’ and ‚Sales Order Processing’) that directly interact, whereas messages with the customer’s systems must be exchanged via service interactions. Service interaction is also necessary to transfer the sales order’s data to invoicing, as the PC ‚Customer Invoice Processing’ belongs to another DU. Each PC is described by a Process Component Model (see Fig. 3). This model type shows the business objects and process agents belonging to some PC, its service interfaces and all process components using the inbound service interfaces. Process Component Models do not represent process flow logic, but architecture relevant ‘uses’ and ‘realized by’ relationships. Service interfaces placed above or below (to the right of) a BO group asynchronous (synchronous) interactions. Fig. 3. Sample Process Component Model (© SAP AG). Fig. 3 shows the Process Component Model of the PC ‚Sales Order Processing’ from Fig. 2. The operations to create, change or cancel instances of the BO ‚Sales Order’ are grouped into the same 175 service interface since they can be asynchronously invoked by the same PC ‚Purchase Order Processing at Customer’. A process agent (a technical artifact) connects the SI to the BO. The Process Component Interaction Model (see Fig. 4) can be seen as an extended view on the information contained in Process Component Models: It shows the service choreography and the messages exchanged between exactly two process components for a specific business goal and the involved business objects, process agents, interfaces, operations and message types. This model type is only generated for service interactions. Fig. 4 shows the corresponding service interaction between the PC ‚Customer Invoice Processing’ and the PC ‚Sales Order Processing’, which exchange special message types for customer invoices (request and issued confirmation). Fig. 4. Sample Process Component Interaction Model (© SAP AG). 3.2. Content Creation and Governance Process There is no central ‘modeling department’ within SAP AG; instead, the modeling (called content creation in the following) is a task of the developers. Decentralized content creation is facilitated by the eSOA Content Creation Guidelines that accompany the eSOA metamodel as well as centralized methodology coaching: The subject matter experts in the development teams are assisted by eSOA Modeling Methodology experts, who help them in applying the content creation guidelines. The content creation guidelines control the identification, design and implementation of metaclass instances and models; a few examples are given in the following: The identification of metaclass instances puts the eSOA metaclass definitions into particular content entities. For example, business objects are defined according to industry standards, e.g., the ones for B2B communication from RosettaNet [11], or industry best practices. The formation of process components follows an outside-in business view: In general, a process component represents the software realizing a business process that is typically executed in one department. A deployment unit is a collection of process components and corresponds to the smallest unit of software distribution. Deployment units are determined by thinking about customer’s deployment scenarios (e.g., central accounting, lineof-balance-oriented production and regionally distributed sales) and business process outsourcing. Service interactions and the message types exchanged are organized in patterns (e.g. ‚notification’, ‚information distribution’, ‚query response’), which are strictly derived from the transaction patterns of the UN/CEFACT modeling methodology [14]. Design issues covered by the content creation guidelines include, for example, naming rules, the determination of identifiers, modeling restrictions (e.g., a BO node data type must be either a global data type or a data type composed out of global and aggregated data types) and technical 176 restrictions (e.g., multi-valued attributes are not allowed for BO nodes). The content creation guidelines also provide code skeletons for the implementation of the metaclasses. Finally, the PIC (Process Integration Content) governance process is SAP’s central approval and quality assurance procedure for the modeled eSOA contents. Its tasks consist in 1) checking the conformance of the models to the eSOA content creation guidelines, 2) approving exceptions from these guidelines, 3) assuring identical semantics as well as reuse of the modeled entities across development teams and throughout SAP ‘Business byDesign’ and 4) managing model changes. Thus, the process increases the consistency of the modeled contents. In detail, the PIC governance process comprises several phases (see Fig. 5). PIC0 focuses on the definition of process integration aspects, i.e., the service orchestration between components: First, the functional requirements are structured into business objects, process components and deployment units by applying the eSOA content creation guidelines. PIC01 approves cut, semantics (i.e., appropriate definition) and naming of the identified entities. Then, the constituents of the Integration Scenarios Models (process components and their interactions) are defined and confirmed by PIC02. Thirdly, each interaction between process components is detailed by Process Component Models and Process Component Interaction Models (PIC03). The phases PIC1 to PIC3 are concerned with data modeling: Business objects, their nodes and data types as well as service signatures are defined. Fig. 5 relates the PIC governance process to the process of modeling. Fig. 5. SAP Process Integration Content (PIC) Governance Process. Only those modeled entities that have passed the PIC governance process are released for implementation and listed in the eSOA Repository (ESR), a central directory of all elements that embody eSOA [16]. For business objects and service interfaces, proxy coding is generated (see Fig. 5). If either subsequent functional requirements or unforeseen implementation issues call for deviations from the modeled entities, first, the affected models have to be adjusted. Then, the PIC governance process must be passed anew (now as a change process), before implementation can be started. 177 3.3. Modeling Tool Environment To efficiently realize MDD in large software development projects, an appropriate tool environment is important. Not only modeling must be supported, but also the governance process. Therefore, key features of such a tool environment include: Close integration with the eSOA repository, high usability and specific adaptation to the modeling methodology to make modeling efficient, status management for the models and their entities to track the approval status in the governance process, versioning and release management like for source code. Reports should check automatically if abstract syntax and content creation guidelines have been kept. These checks ensure consistency and quality of the modeled contents. Owing to the development cooperation between SAP and IDS Scheer, the ARIS tool [1] was used to implement the eSOA Modeling Methodology. The close integration with SAP’s eSOA Repository as well as the flexible reporting and configuration capabilities of ARIS proved to be very useful. However, ARIS provides only the tool basis to implement the eSOA Modeling Methodology (see Fig. 6); the ARIS modeling methodology featuring event-driven process chains is not a part of the eSOA Modeling Methodology. Fig 6. A Process Component Interaction Model in the ARIS Modeling Tool. 4. Relationship of the eSOA Metamodel to Standards Although the eSOA Modeling Methodology was invented to support the development of a company-specific form of SOA, the resulting service-oriented application systems will probably be integrated in landscapes of heterogeneous software systems. For that reason, conformance to standards is important. Especially standards for the description of software architectures (ANSI/ IEEE 1471-2000 [2]), general modeling standards (UML [8]) and standards related to (web) services (WSDL [15], SCA [10]) must be kept. Process modeling standards like the Business Process Modeling Notation (BPMN [6]), event-driven process chains (EPC [1]) or UML activity diagrams [8] are, however, not relevant, since software architecture, which the eSOA Modeling Methodology describes, is only concerned with structural aspects of software systems and general interaction possibilities (as opposed to particular interactions) [5]. In fact, the eSOA metamodel can largely be expressed as an UML profile. By accepting loss of some internal information, eSOA models can also be transformed into a SCA-compliant representation. More detailed descriptions of these mappings can be found in [4]. The main advantage of our approach is the precise mapping from the eSOA models to SAP’s application architecture. 178 The eSOA definitions of service interfaces and operations agree with the standard Web Service Description Language (WSDL) 2.0. This conformance is relevant to external invocations of the services provided by SAP ‘Business byDesign’. WSDL 2.0 characterizes services by interfaces that contain at least one operation; the signature of an operation consists of messages [15]. The transformation from WSDL to proxy code is straightforward. 5. Evaluation of the eSOA Modeling Methodology The eSOA Modeling Methodology was applied during the development of the service-oriented application system SAP ‘Business byDesign’: The functional requirements were decomposed into business objects and services and aggregated to process components and deployment units before actual coding started. Table 1 shows the according numbers of eSOA entities. Table 1. Numbers and Usage of Models (March 2008) Model Type Name Integration Scenario Models PC Models Counts 28 115 Model Constituents DU PC BO PA 20 130 373 622 X X X X O 651 MT 579 Model Usage beyond Documentation Derivation of end-user test cases Generation of PC Interaction Models, Consistency Checks PC Interaction Models X X X X X Activation of a service interaction 211 during configuration generates entries in SAP XI BO Models X Derivation of operation 373 signatures; Generation of provider classes, interfaces and proxies Abbreviations: BO: Business object, DU: Deployment unit, MT: Message type, O: Operation, PA: Process agent, PC: Process component, X: Model type uses metaclass instances X The creation of the models causes effort. The effort shows up in the numbers of models and their entities (see Table 1) and in the phases of the governance process (see Fig. 5) that must be passed before implementation and in case of changes. Although this effort is significant, our experience is that it pays off through the usage of the models over the whole software lifecycle (see Table 1): The eSOA metamodel provides clear guidance and a common language to formalize the gathered functional requirements in a way that immediately leads to a service-oriented system design. System specification is structured according to the eSOA metaclasses and model types (for example, specifications are written per process component or integration scenario); development teams are formed around process components and deployment units. In implementing the system, provider classes, interfaces and proxies have been automatically generated from the Business Object Models in the eSOA Repository. End-user test cases are derived from Integration Scenario Models; tests related to data and message types can also be generated. In order to derive the technical configuration of a particular customer system during deployment, Process Component Integration Models are used to automatically create interaction-specific configuration entries for enterprise service interactions in SAP’s Exchange Infrastructure (XI). Software maintenance requires deep knowledge of the system and its integration; the service and support teams gain this knowledge form the modeled content. Finally, the common language coined by the eSOA metamodel drives development efficiency throughout the entire software lifecycle. Two critical points of the eSOA Modeling Methodology can be identified; the first one is the governance process. Though it is mandatory for quality assurance, it should not be overstated. Governance must balance out rigid quality checks and room for innovation and exceptions. The PIC 179 governance process was refined several times to ensure that it does not become the bottleneck of development efficiency, but still guarantees consistent content of high quality. Secondly, the eSOA Modeling Methodology is architecture-driven. The created models are not well suited to explain business experts how business processes are realized. Experience showed that even in developing composite applications more business context is required to manage service integration. This can be achieved by combining service interaction and process flow as proposed by BPMN and the related execution language BPEL. Therefore, our future research is directed to extending the eSOA Modeling Methodology by a BPMN-based process flow description. 6. Conclusion This paper has presented an approach for the model-driven development of SOA-based business application systems in a huge industrial setting. In domains other than business applications, both metamodel and content creation guidelines of the eSOA Modeling Methodology must be adapted. The eSOA Modeling Methodology belongs to the development paradigm of SAP’s ‘Business byDesign’ application system. As a result, the complete functional content of ‘Business byDesign’ is described by models with a one-to-one correspondence to source code. The models form an easy to understand common language across various functional and organizational areas. In a project involving more than 800 developers, such a language raises development productivity The modeled content opens up opportunities to design and document other aspects of the software system as well, such as configuration constraints, process flow and end-user interfaces. All this can only be realized if metamodel, content creation guidelines, governance process and modeling tool are treated as a single, integrated topic, as done by the eSOA Modeling Methodology. 7. References [1] IDS Scheer, ARIS Software, http://www.ids-scheer.com/en/aris. [2] IEEE, IEEE Recommended Practice for Architectural Description of Software-Intensive Systems. IEEE Std 14712000. Recognized as an American National Standard (ANSI), Approved 2000-09-21. [3] JOHNSTON, S.K., UML 2.0 Profile for Software Services, http://www.ibm.com/ developerworks/ [4] KÄTKER, S., PATIG, S., Model-Driven Development for Service-Oriented Software Systems. Preprint No. 208, Institut für Wirtschaftsinformatik der Universität Bern, Bern, 2008. [5] KRUCHTEN, P.B., The 4+1 View Model of Architecture, in: IEEE Software Vol. 12, No. 6 (1995). [6] OMG, Business Process Modeling Notation, Version 1.1, formal/2008-01-17 http://www.bpmn.org/ [7] OMG, Model-driven Architecture, Guide Version 1.0.1, omg/2003-06-01, http://www.omg.org/ [8] OMG, Unified Modeling Language: Superstructure, Version 2.1.2, formal/2007-11-02, http://www.omg.org/ [10] OSOA, Service Component Architecture Assembly Model V1.00, http://www.osoa.org/ [11] RosettaNet: http://www.rosettanet.org/ [12] SEUBERT, M., Business Objects und objektorientiertes Prozeßdesign (in German), in: Becker, J., Rosemann, M., Schütte, R. (Hrsg.), Entwicklungsstand und Entwicklungsperspektiven der Referenzmodellierung, S. 46-64. Arbeitsbericht Nr. 52, Universität Münster, Institut für Wirtschaftsinformatik 1997. [13] STARON, M., Adopting Model Driven Software Development in Industry – A Case Study at Two Companies, in: Nierstrasz, O. et al. (Hrsg.), MoDELS 2006, LNCS Vol. 4199, pp. 57 – 72. Springer, Berlin 2006. [14] UN/CEFACT, UMM User Guide; http://www.unece.org/cefact/umm/umm_index.htm. [15] W3C, Web Services Description Language (WSDL) Version 2.0, Part 1: Core Language. http://www.w3.org/ [16] WOODS, D., MATTERN, T., Enterprise SOA – Design IT for Business Innovation, O’Reilly, Beijing 2006. In dieser Publikation wird auf Produkte der SAP AG Bezug genommen. SAP, R/3, xApps, xApp, SAP NetWeaver, Duet, PartnerEdge, ByDesign, SAP Business ByDesign und weitere im Text erwähnte SAP-Produkte und -Dienstleistungen sind Marken oder eingetragene Marken der SAP AG in Deutschland und anderen Ländern weltweit. Business Objects und das Business-Objects-Logo, BusinessObjects, Crystal Reports, Crystal Decisions, Web Intelligence, Xcelsius und andere im Text erwähnte Business-Objects-Produkte und -Dienstleistungen sind Marken oder eingetragene Marken der Business Objects S. A. in den USA und anderen Ländern weltweit. Business Objects ist ein Unternehmen der SAP. Die SAP AG ist weder Autor noch Herausgeber dieser Publikation und ist für deren Inhalt nicht verantwortlich. Der SAP-Konzern übernimmt keinerlei Haftung oder Garantie für Fehler oder Unvollständigkeiten in dieser Publikation. 180 VORGEHENSMODELLE ZUR ENTWICKLUNG SERVICEORIENTIERTER SOFTWARESYSTEME Oliver Thomas, Katrina Leyking, Michael Scheid1 Kurzfassung Bei der Entwicklung von Softwaresystemen auf Basis eines serviceorientierten Architekturparadigmas stellt sich die Frage, welches Vorgehensmodell zur Projektabwicklung herangezogen werden kann. In der Literatur werden unterschiedliche Vorgehensmodelle zur serviceorientierten Softwareentwicklung vorgeschlagen. Aus diesen werden 17 Modelle ausgewählt, charakterisiert sowie mit Hilfe eines allgemeinen Rahmens klassifiziert und verglichen. Dabei werden sowohl generelle Merkmale von Vorgehensmodellen als auch SOA-spezifische Vorgehensmerkmale herangezogen. 1. Einleitung Führende Anbieter von IT-Lösungen sehen in der Serviceorientierten Architektur (SOA) das Paradigma der Zukunft. Mit diesem Management- und Systemarchitekturkonzept scheint es erstmalig möglich, die Modellierung betriebswirtschaftlich relevanter Abläufe mit deren physischer Ausführung über eine Softwareplattform zu verbinden [7; 20; 31; 33; 43]. Gartner prognostiziert, dass bis 2010 rund 65 Prozent der großen Unternehmen über 35 Prozent ihrer Anwendungsportfolios auf einer SOA-Architektur aufbauen werden [24]. Bei aller Euphorie ist zu beachten, dass in der Serviceorientierung nicht ein Softwareprodukt im Mittelpunkt steht, sondern eine langfristige, strategische Neuausrichtung der unternehmensweiten IT. Die entsprechenden Veränderungsprozesse sind durch eine hohe Komplexität gekennzeichnet. Zur Handhabbarmachung dieser Komplexität werden in der Literatur verschiedene serviceorientierte Vorgehensmodelle vorgeschlagen. Trotz der Vielfalt an bestehenden SOA-Vorgehensmodellen existieren in der Literatur kaum Untersuchungen, die den Nachweis und die Dokumentation der Vorgehensmodelle im State-of-the-Art zum Gegenstand haben. Ebenso mangelt es darauf aufbauend an Arbeiten zur Behandlung der Frage, welche SOAVorgehensmodelle in welchen Anwendungssituationen zu nutzen sind. In Anlehnung an vergleichende Übersichten über Vorgehensmodelle des Software Engineering [2], komponentenorientierte Vorgehensmodelle [10] und objektorientierte Vorgehensmodelle [30] sowie Vorarbeiten zur Katalogisierung von Vorgehensmodellen [11] soll daher in diesem Beitrag ein vergleichender Überblick über ausgewählte Vorgehensmodelle zur serviceorientierten Entwicklung von Softwaresystemen gegeben werden. Dabei sollen sowohl generelle Merkmale von Vorgehensmodellen herangezogen werden als auch Aspekte, die im Hinblick auf die serviceorientierte Systementwicklung eine besondere Rolle spielen. Die einzelnen SOA-Vorgehensmodelle sollen nicht im Detail vorgestellt werden, zu ihrer ausführlichen Herleitung und Beschreibung wird auf die Originalquellen verwiesen. Der Vergleich der serviceorientierten Vorgehensmodelle ist systematisch und wird auf Basis eines einheitlichen Vergleichsrahmens durchgeführt. 1 Institut für Wirtschaftsinformatik im DFKI, Universität des Saarlandes, Stuhlsatzenhausweg 3, 66123 Saarbrücken. 181 2. Neue Anforderungen an Vorgehensmodelle durch SOA Vorgehensmodelle des Software Engineering beruhen auf der Idee des Software-Lifecycle und werden als ein Rahmenkonzept verstanden, dem jede Softwareentwicklung folgen soll [für einen Überblick vgl. 2, Kap. II 3.3]. Sie dienen der zeitlichen, logischen Strukturierung der durchzuführenden Aktivitäten innerhalb der Entwicklungs- und Einsatzphasen von Informationssystemen, der Zuordnung von Mitarbeitern zu diesen Aktivitäten sowie der Beschreibung der zu erzielenden Ergebnisse. Durch SOA soll es möglich werden, Anwendungssysteme flexibel aus eigenständigen Teilsystemen (Services) zusammenstellen zu können [20; 23]. Anwendungssysteme sollen nicht als Gesamtsysteme im Unternehmen vorgehalten werden, vielmehr sollen benötigte Dienste bedarfsgerecht über das Internet bezogen und unternehmensindividuell konfiguriert werden [12, S. 78 f.; 21, S. 33]. Die Ziele einer SOA-Entwicklung unterscheiden sich somit von denjenigen „traditioneller“ Softwareprojekte. Die daraus resultierenden Herausforderungen sind bei der Auswahl von Vorgehensmodellen für eine SOA-Entwicklung zu berücksichtigen. In dieser Untersuchung müssen die Vorgehensmodelle folgenden im Rahmen einer Literaturrecherche identifizierten Kriterien – im Sinne SOA-spezifischer Gestaltungsprinzipien – gerecht werden: • • • • Modularisierung: SOA basieren auf einer Dekomposition bestehender Anwendungssysteme in funktional gekapselte Services [9, S. 290; 20, S. 242; 27, S. 42]. Dabei sind eine Kohäsion von Funktionalitäten und eine Autonomie unterstützender Services anzustreben. Einhergehend ist das Prinzip der losen Kopplung zu beachten, das auf eine Unabhängigkeit bei gleichzeitiger schnittstellenbasierter Interoperabilität der Services untereinander abzielt [6, S. 9; 45, S. 157]. Abstraktion: Eine serviceorientierte Softwaregestaltung basiert auf einer Trennung von Schnittstelle und Implementierung, wodurch dem Softwarenutzer ein abstrakter Systemzugang gewährt wird und Codierungsdetails verborgen bleiben. Durch das Information-Hiding-Prinzip [35, S. 1056] wird eine plattformneutrale Servicebeschreibung realisiert, die die Servicenutzung unabhängig von der programmiertechnischen Ausgestaltung des in Anspruch nehmenden Systems macht. Die Auswahl der technischen Softwarelösung kann zur Laufzeit erfolgen. Ausgewogene Granularität: Bei SOA ist ergänzend das richtige Maß an fein- und grobgranularen Services zu finden [9, S. 299; 20, S. 242; 37, S. 127]. Die Granularität gibt Auskunft über Art und Umfang der Funktionalität, die durch ein Modul bereitgestellt wird. Sind Services grobgranular gestaltet, kann deren Wiederverwendung beeinträchtigt werden. Feingranulare Services können zu Ineffizienzen führen und einen fachaufgabenorientierten Einsatz gefährden. Prozessorientierung: Die Komposition von Services zu inner- und überbetrieblichen Geschäftsprozessen stellt einen zentralen Bestandteil einer SOA-Entwicklung dar. Sie steht in der Tradition der Konfiguration von Workflow-Management-Systemen und macht sich die Prinzipien des „Programming-in-the-large“ [5] zunutze. Die Prozessgestaltung kann dabei als Bindeglied zwischen dem Organisationssystem und dem Anwendungssystem betrachtet werden. Sie stellt ein durchgängiges „Business/IT Alignment“ [14] in Aussicht, welches Vorraussetzung für die Zielsetzung flexibler und wiederverwendbarer Services ist. Traditionelle Vorgehensmodelle des Software Engineering schenken diesen SOA-spezifischen Kriterien nicht immer Beachtung, was die Notwendigkeit serviceorientierter Vorgehensmodelle begründet. Allerdings sind in der Literatur auch serviceorientierte Vorgehensmodelle zu finden, die gleichsam wesentliche Charakteristiken einer SOA unberücksichtigt lassen. So gibt bspw. die Architectural und Organization Roadmap von Krafzig et al. [20] keine Empfehlungen für die Erzielung ausgewogener Granularität und abstrakter Serviceschnittstellen. Demgegenüber sieht das Konzept von Overhage, Turowski [32] keine explizite Modularisierung vor. Tsai [41] spricht in seinem Ansatz zwar von einer Servicekomposition zur Laufzeit, berücksichtigt aber keine prozessorientierte Serviceorchestrierung. Die im Rahmen einer Literaturrecherche identifizierten serviceorientierten Vorgehensmodelle, die den genannten Kriterien genügten, sind in Tabelle 1 zusammengestellt. 182 Tabelle 1: Vorgehensmodelle zur Entwicklung serviceorientierter Softwaresysteme Quelle Vorgehensmodell [1] Service-oriented Modeling and Architecture Method [3] Creating Serviceoriented Architectures [4] Service-Oriented Analysis and Design Activities [13] Enterpise-SOARoadmap-Methodik [15] Creating of a Service Architecture [16] Procedure Model for Service Identification [19] Process Models for business-oriented Service Identification and Clustering [22] Procedure Model for a SOA-Based Integration of Enterprise Systems [25] Service Oriented System Engineering [26] Vorgehensmodell zur Umsetzung von SOA-Systemen [28] Business-driven SOA Development [29] [34] [36] [17; 39] [40] [44] Seven Steps to a Service-Oriented Evolution Service-oriented Design and Development Methodology SOAEntwicklungsprozess Vorgehensmodell zur Entwicklung von Geschäftsservicen Modellbasierte Gestaltung serviceorientierter Architekturen Service Identification and Packaging in Service Oriented Reengineering Charakterisierung Arsanjani (IBM) beschreibt den schematischen Aufbau einer SOA. Darauf aufbauend erfolgt die Erläuterung des Vorgehensmodells, bestehend aus den Hauptphasen „Identification“, „Specification“ und „Realisation“, die in die Subphasen „Service Identification“, „Service Classification or Categorization“, „Subsystem Analysis“ „Component Specification“, „Service Allocation“ und „Service Realisation“ segmentiert werden. Das Modell baut auf denselben konzeptionellen Grundlagen auf wie das Vorgehensmodell von Mitra. Barry & Associates, Inc. stellen ein fünfstufiges Vorgehensmodell für die Konzeption einer web-service-basierten SOA vor, das aus den Stufen „Experiment with Web Services“, „Adapt Existing Systems to Use Web Services“, „Remove Intersystem Dependencies“, „Establish an Internal SOA“ sowie „Establish an Internal SOA to include External Services“ besteht. Der Schwerpunkt liegt auf den technischen Aspekten, die mit SOA und der Realisation durch Web Services verbunden sind. Bieberstein (IBM) stellt vier Phasen vor, die im Rahmen eines serviceorientierten Analyse- und Designprozesses durchzuführen sind: „Service Identification“, „Service Categorisation“, „Service Specification“ und „Service Realisation“. Neben Arsanjani und Mitra, ist dies der dritte in dieser Arbeit vorgestellte Autor, der für IBM tätig ist. Hack und Lindemann stellen die von SAP entwickelte Roadmap-Methodik vor. Sie besteht aus den Phasen „Strategische Rahmenbedingungen“, „Transparenz zur Geschäfts- und IT-Landschaft“, „Potenzialanalyse“, „Design“ und „Roadmap-Definition“, die weiter segmentiert sind. Ein Alleinstellungsmerkmal liegt in der Schwerpunktlegung auf organisatorische und strategische Fragestellungen im Vorfeld der SOA-Entwicklung. Der Ansatz von Jones und Morris, der als OASIS-Draft publiziert wurde, hat die Beschreibung eines „Service Discovery Approaches“ zum Ziel und orientiert sich an einer fortschreitenden Top-Down-Analyse ausgehend von einer Betrachtung des Geschäftsumfelds. Die vollständige Definition und die Implementierung der Services liegen außerhalb des Beitragsfokus. Dieses an der Universität Münster entwickelte Vorgehensmodell befasst sich vornehmlich mit der Serviceidentifikation. Es besteht aus den Hauptphasen „Preparation“, „Service Design“ und „Service Categorisation“. Im Rahmen einer Geschäftsprozessanalyse erfolgt im Gegensatz zu anderen Vorgehensmodellen eine Differenzierung zwischen manuellen, semiautomatischen und automatischen Funktionen. Kohlmann (Universität Leipzig) beschreibt ein Vorgehensmodell für Serviceidentifikation und Serviceclustering, welches in die Phasen „Preparation“, „Analysis“, „Verfication“ und „Detailing“ untergliedert ist. In die Konstruktion dieses Vorgehensmodells sind die Erkenntnisse einer zuvor durchgeführten Analyse bereits existierender Vorgehensmodelle eingeflossen. Dieser Ansatz von sd&m beschreibt ein Vorgehensmodell für eine SOA-basierte Integration von Anwendungssystemen. Es besteht aus den Hauptphasen „Task based decomposition of systems“, „Preparation of the integration and mapping of redundant functions“ , „Detection and assignment of services to code fragment“ und „Orchestration of web services“. Gleichzeitig wird das Vorgehensmodell anhand der Integration eines ERP-Systems und eines Content-Management-Systems beispielhaft angewendet. Masak, der als Consultant und Autor tätig ist, nimmt eine modelltechnische Dreiteilung in Geschäftsmodell, Servicemodell und Implementierungsmodell vor. Der Konstruktionsprozess wird in die Phasen „Discover“, „Selection“, „Rating“, „Assembling“, „Execution“, „Monitoring“, „Accounting“ und „Disintegration“ unterteilt. Mathas (Siemens) führt ein Vorgehensmodell für SOA ein, das aus den Phasen „Betrachtungen zur Systemauslegung“, „Prozessanalyse“, „Funktionsanalyse“, „Systemdesign“, „Systementwicklung“, „Systemeinführung“, „Systembetrieb“ und „Wartung“ sowie „Anpassungen und Updates“ besteht, wobei er für jede Phase eine rollenspezifische Zuordnung vornimmt. Mitra (IBM) beschreibt ein Vorgehensmodell, das die Phasen „Business Component/Analysis“, „Service Identification“, „Service Spezification“, „Component Identification“, „Component Specification“, „Service Realisation Decision“ und „SOA Implementation“ umfasst. Neben einer anwenderorientierten business-getriebenen Ableitung der Services, wird eine gleichzeitige service-provider-orientierte Analyse bestehender Systeme vorgeschlagen. Nadhan (EDS Consulting Group) definiert sieben Phasen, die im Rahmen eines SOA-Entwicklungsprozesses zu durchlaufen sind: „Identify“, „Locate“, „Group“, „Package“, „Orchestrate“, „Route“ und „Govern“. Dabei legt er einen Schwerpunkt auf die technischen Aspekte einer SOA-Entwicklung. Das an der an der Universität Tilburg (NED) entwickelte Modell für das Design und die Entwicklung von Services besteht aus den Schritten „Planning“, „Analysis“, „Service Design“, „Service Construction“, „Service Test“, „Service Execution“ sowie „Service Management and Monitoring“. Die Vorgehensbeschreibung beinhaltet im Gegensatz zu anderen untersuchten Modellen, eine detaillierte Erläuterung zur BPEL-basierten Umsetzung von Services. Pingel (brick_AT_work GmbH) beschreibt einen aus den Schritten „Spezifikation“, „Analyse“, „Design“ sowie „Realisierung“ und „Tests“ bestehenden Ansatz für die SOA-Entwicklung. Die Schritte sind dabei in weitere Subphasen untergliedert. Über den gesamten Entwicklungsprozess wird UML zur Modellerstellung eingesetzt. Das von der IDS Scheer AG entwickelte Vorgehensmodell umfasst insgesamt zehn Phasen. Es beschreibt einen modellgetriebenen Ansatz, der verstärkt auf die betriebswirtschaftlich relevanten Aspekte einer SOA fokussiert ist. Zudem wird für die Prozessschritte eine Zuständigkeitsverteilung für die Rollen „Business Analyst“, „Process Engineer“ und „Software Engineer“ vorgenommen. Der an der Universität des Saarlandes in Zusammenarbeit mit der SAP entwickelte Ansatz ist modellgetrieben. Die SOA-Entwicklung erfolgt dabei anhand eines dreistufigen Ordnungsrahmens, bestehend aus den Phasen „Prozessgestaltung“, „Prozesskonfiguration“ und „Prozessausführung“ und verfolgt speziell das Ziel, die Lücke zwischen der konzeptionellen Modellierung und der serviceorientierten IT-Unterstützung zu schließen. Das am Software Technology Research Laboratory in Leicester (ENG) entwickelte Vorgehensmodell dient der Überführung und Integration bestehender Softwarekomponenten in serviceorientierte Informationssysteme. Die Hauptphase der „Service Identificaton“ ist dabei untergliedert in „Service identifcation in problem domain“, „Service identification in a legacy system“ sowie „Matching legacy functionalities to business functions in logical services“. Die zweite Hauptphase „Service Packaging“ ist die in die Subphasen „Legacy code refinement“, „New functional development“, „Service interface and description development“, „Transport mechanism integration“, „Connector development“ und „Service complexity reduction“ segmentiert. 183 3. Ein Vergleichsrahmen für serviceorientierte Vorgehensmodelle Methodische Vorüberlegungen Um die wesentlichen Aspekte zur Charakterisierung von SOA-Vorgehensmodellen herauszuarbeiten, wird eine Klassifikation entworfen. Allgemein liegt eine Klassifikation vor, wenn ein Untersuchungsgegenstand nach einem bestimmten Merkmal und dessen Ausprägungen gegliedert wird [8, S. 10 ff.; 18, S. 142]. Zu einer solchen Klassifikation können durchaus mehrere Einteilungen nach jeweils anderen Kriterien gehören, ohne dass sich dadurch am Charakter einer klassifikatorischen Ordnung grundsätzlich etwas ändert. Die Kriterien stehen isoliert neben- oder hintereinander, wobei eine Verknüpfung der verschiedenen Einteilungskriterien nicht vorgenommen wird [18, S. 142]. Das in dieser Untersuchung verwendete Klassifikationssystem für SOA-Vorgehensmodelle besteht aus 31 Merkmalen (vgl. Tabelle 2). Um die Übersichtlichkeit des Klassifikationssystems zu wahren, sind die Merkmale zu fünf Merkmalsklassen zusammengefasst worden. Diese Klassen berücksichtigen einerseits, dass SOA-Vorgehensmodelle nicht nur entwickelt, sondern auch angewendet werden. Andererseits wird zwischen dem Vorgehen zur Vorgehensmodellkonstruktion (Konstruktionsprozess) und dessen Resultat (Konstruktionsergebnis) getrennt. Die Klassifikation orientiert sich ergänzend an den wesentlichen in der Literatur zu Vorgehensmodellen aufgeführten generellen Strukturmerkmalen und -ausprägungen [11], die um SOA-spezifische Aspekte erweitert sind. Konstruktionsprozess und -ergebnisbezogene Merkmale Die in dieser Klasse enthaltenen Merkmale charakterisierenden den mit der Entwicklung eines Vorgehensmodells verbundenen Konstruktionsprozess und dessen Konstruktionsergebnis. Herkunft, Erkenntnisweg und Repräsentationsform sind im Sinne ihres in der Wissenschaft geläufigen Gebrauchs zu verstehen. Nach dem Interaktionsgrad, also dem Grad des wechselseitigen aufeinander Einwirkens der beteiligten Akteure und/oder Systeme, sind Vorgehensmodelle dahingehend zu unterscheiden, ob sie individuell, kooperativ (arbeitsteilig) oder kollaborativ (gemeinsam bearbeitend) erstellt werden. Diese Unterscheidung adressiert das in der Literatur diskutierte „Glaubwürdigkeitsproblem“ vieler individuell entwickelter Referenzmodelle. Die Hierarchisierungsstufe gibt an, ob sich die Phasen eines Vorgehensmodells in weitere Subphasen unterteilen. Das Merkmal Individualität legt fest, ob der Ersteller eines Vorgehensmodells dieses als Referenzmodell für eine Klasse von Anwendungsfällen betrachtet oder ob es im Rahmen eines fallspezifischen, individuellen SOA-Entwicklungsprojekts entstanden ist. Merkmale mit Bezug zu SOA-Entwicklungszielen Diese Merkmalsklasse dient dazu, die Ziele und Zwecke, für welche ein SOA-Vorgehensmodell entwickelt wurde, näher zu charakterisieren. Das Merkmal Perspektive beschreibt die potenzielle Zielgruppe eines Vorgehensmodells. Dabei erfolgt eine Dreiteilung in die Ausprägungen Serviceanbieter, -broker und -anwender. In Abhängigkeit zu entwickelnden Informationssystems können Vorgehensmodelle danach unterschieden werden, ob sie eher die Anwendungs- oder die Organisationssystemkomponente im Sinne eines Informationssubsystems betrachten. Darüber hinaus sind für Vorgehensmodelle zwei unterschiedliche Schwerpunkte in Bezug auf den Verwendungszweck zu differenzieren. Vorgehensmodelle, die auf Business Engineering ausgelegt sind, fokussieren die flexible Anpassung von Geschäftsprozessen an sich ständig verändernde wirtschaftliche Anforderungen. Im Gegensatz dazu liegt das Hauptaugenmerk von software-engineering-orientierten Vorgehensmodellen auf der Gestaltung des Zusammenspiels zwischen den Geschäftsprozessen und der sie unterstützenden Anwendungssysteme. Da für die Entwicklung von SOA mehrere technische Optionen bestehen, sind Vorgehensmodelle dahingehend zu unterscheiden, ob sie in Bezug auf ihre technologische Ausrichtung unabhängig oder gebunden (z. B. an den Web-Service-TechnologyStack) sind. Ein weiteres Merkmal trifft eine Aussage darüber, ob ein Vorgehensmodell einen konkreten Produktbezug aufweist. Insbesondere aus der Praxis stammende Vorgehensmodelle sind 184 häufig auf konkrete Softwareprodukte (z. B. Modellierungswerkzeuge oder Entwicklungsumgebungen) ausgerichtet. Die Merkmale Organisations- und Aufgabenbezug beschreiben die verschiedenen Projektgrenzen, für die ein Vorgehensmodell auslegt sein kann. Es ist zu unterscheiden, ob ein Vorgehensmodell nur organisationsinterne SOA berücksichtigt, oder ob es zusätzlich die Entwicklung von unternehmensübergreifenden SOA unterstützt. Analog kann ein Vorgehensmodell dazu dienen, lediglich eine einzelne Aufgabe innerhalb eines Unternehmens als SOA abzubilden, oder es kann zur Entwicklung einer SOA dienen, die einen kompletten Unternehmensteilbereich abdeckt. SOA-unspezifische Vorgehensmerkmale Diese Merkmalsklasse umfasst generelle Eigenschaften, mit denen sich Vorgehensmodelle charakterisieren lassen. Die Anwendungsdömane eines Vorgehensmodells kann entweder spezifisch oder neutral ausgeprägt sein. Domänenneutrale Vorgehensmodelle sind auf beliebige Entwicklungsszenarien anwendbar, während domänenspezifische Modelle nur auf eine Klasse von Anwendungsfällen (z. B. Branche) passen. Das Merkmal Vorgehenssteuerung beschreibt die verschiedenen Arten der Prozesssteuerung für Vorgehensmodelle. Ein Vorgehensmodell ist aktivitätsorientiert, wenn es eine festgelegte Abfolge von Aktivitäten beschreibt. Es ist ergebnisorientiert, wenn sein Schwerpunkt auf der phasenübergreifenden Transformation der zu erzielenden Ergebnisse liegt. Ein entscheidungsorientiertes Vorgehensmodell definiert Bedingungen, die in Abhängigkeit ihres Eintretens die Art und die Reihenfolge der durchzuführenden Aktivitäten bestimmen. Das Merkmal Problemlösung orientiert sich in seinen Ausprägungen iterativ, inkrementell und rekursiv an den korrespondierenden Vorgehensmodellbeschreibungen aus dem Bereich des Software Engineering [11]. Die Phasenanordnung eines Vorgehensmodells kann entweder streng sukzessiv aufgebaut sein, d. h. mit einer neuen Phase kann erst dann begonnen werden, wenn die vorangehende Phase abgeschlossen ist, aber auch mehrere parallel auszuführende Phasen aufweisen. Die Merkmale Sprachempfehlung, Methodenempfehlung und Werkzeugunterstützung treffen Aussagen über Instrumente, denen sich das Vorgehensmodell bedient. Das Spektrum von Sprachempfehlungen reicht vom UML-Aktivitätsdiagramm über die EPK bis hin zu BPMN oder BPEL. Als Empfehlung für eine homogene Gesamtmethode kommen beispielsweise ARIS oder UML in Frage. Damit einhergehend kann zusätzlich eine Werkzeugempfehlung für einzelne Phasen oder den Gesamtprozess ausgesprochen werden. Die Ergebnisse der einzelnen Phasen werden i. d. R. in einer Ergebnisdokumentation festgehalten, deren Gestaltung textuell oder grafisch (modellorientiert) erfolgen kann. SOA-spezifische Vorgehensmerkmale Neben den zuvor beschriebenen, generellen Charakteristika, die auf Vorgehensmodelle anwendbar sind, existiert darüber hinaus eine Reihe SOA-spezifischer Merkmale. So ist im Rahmen einer SOA-Entwicklung zu Beginn i. d. R. eine Projektinitialisierung durchzuführen, um einen Anforderungskatalog zu definieren. Als Gegenstand der Initialisierung kommen dabei entweder eine Geschäftsprozessanalyse, die Untersuchung eines bereits existierenden Anwendungssystems oder eine abstrakte Betrachtung der Unternehmensstrategie, aus der sich konkrete Anforderungen ableiten lassen, in Frage. Eine SOA-Einführung kann analog zu den im Software Engineering bestehenden Optionen durch eine Aneinanderreihung einzelner Teilprojekte oder durch einen „Big-Bang“ erfolgen. Im ersteren Fall ist die Migrationsstrategie evolutionär, im letzteren Fall revolutionär. Die Entwicklungsstrategie eines SOA-Vorgehensmodells lässt sich analog zum Software Engineering in die Ausprägungen top-down, middle-out und bottum-up untergliedern. Die Funktionen, die innerhalb eines Geschäftsprozesses auftreten, sind nach ihrer potenziellen IT-Unterstützung in automatisch, semiautomatisiert und manuell zu differenzieren. Das Merkmal Automatisierungsgrad gibt an, welche der entsprechenden Servicearten ein Vorgehensmodell berücksichtigt. Zu einem Zeitpunkt, zu dem bereits die Anforderungen und die erforderliche Funktionalität für ein Projekt festgelegt wurden, ist zu entscheiden, welche Services mit welchem Funktionsumfang diese Anforderungen abdecken sollen. Grundsätzlich bestehen zwei Möglichkeiten zur Durchführung dieser Service- 185 identifikation. Eine fachliche Serviceidentifikation leitet die erforderlichen Services aus den zuvor erkannten Funktionen der Geschäftsprozesse ab, eine technische Serviceidentifikation erfolgt durch eine Überführung der Funktionalität von Komponenten bereits existierender Anwendungssysteme in Services. Darüber hinaus können SOA-Vorgehensmodelle als Merkmal die konkrete Darstellung eines Konstruktionsprozesses für die technische Serviceentwicklung enthalten, die eine detaillierte Beschreibung für die Entwicklung einzelner Services umfasst. Neben der Identifikation von Services ist ein Abgleich zwischen den identifizierten und den real verfügbaren Services vorzunehmen. Das Ziel eines SOA-Alignment-Prozesses liegt darin, evtl. bestehende Abweichungen zwischen den identifizierten und den real verfügbaren Services zu beseitigen. Dies kann durch eine direkte Zuordnung von identifizierten Services zu realen Services erfolgen. Für business-getriebene Vorgehensmodelle besteht darüber hinaus die Möglichkeit einer indirekten Zuordnung. Dabei werden die Geschäftsprozessmodelle in einem Zwischenschritt zu technisch-fachlichen Anwendungsmodellen transformiert, anschließend erfolgt eine Zuordnung zu den real existierenden Services. Ein Beispiel für einen indirekten Transformationsprozess ist die Überführung von EPK- in BPMN-Modelle [40]. Zu einem nachgelagerten Zeitpunkt einer SOA-Einführung ist eine Auswahlentscheidung zwischen den infrage kommenden Services zu treffen. SOA-Vorgehensmodelle können für die Serviceselektion eine Entscheidungsunterstützung auf zwei Arten zur Verfügung stellen: anhand von Qualityof-Service-Merkmalen [38] oder alternativ anhand wirtschaftlicher Gütekriterien [42]. Um aus einzelnen Services eine Applikation erstellen zu können, müssen diese zusammengefügt werden. Diesen Vorgang bezeichnet man auch als Servicekomposition. Grundsätzlich bestehen für die Komposition zwei grundlegende Strategien. Zum einen können die Services prozessorientiert gesteuert werden. Für den Fall, dass unternehmensübergreifende Applikationen implementiert werden sollen, ist eine Koordination zwischen den Anwendungssystemen der beteiligten Partner zu gewährleisten (Service-Choreographie). Alternativ zur Prozessorientierung lassen sich Services auch zu funktionsorientierten Komponenten aggregieren. In diesem Fall werden nur die Schnittstellen dieser Komponenten über eine Orchestrierung gesteuert, während innerhalb der Komponenten z. B. objektorientierte Techniken verwendet werden. In Bezug auf ihre Anwendung sind SOA dadurch gekennzeichnet, dass in den meisten Fällen bereits zur Buildtime einer SOA definiert wird, welche Services zur Runtime aufzurufen sind. SOA erlauben es allerdings auch, die Entscheidung darüber, welche Services aufzurufen sind, in die Runtime zu verschieben. Der Entscheidungsprozess dieses „dynamic binding“ kann entweder ereignisgesteuert oder manuell ablaufen. Vorgehensmodelle lassen sich insofern unterscheiden, ob sie diese verschiedenen Arten einer Servicesteuerung berücksichtigen. 4. Anwendung des Vergleichsrahmens In Tabelle 2 sind die ausgewählten Vorgehensmodelle in den hergeleiteten Merkmalen und Merkmalsausprägungen vergleichend gegenübergestellt. Es ist erkennbar, dass die serviceorientierten Vorgehensmodelle eine große Vielfalt von Anwendungsszenarien bedienen. Diese inhaltliche Heterogenität erschwert ihren Vergleich. Das Spektrum reicht von der einfachen Serviceidentifikation auf Basis bestehender Softwarelandschaften [29], der Erarbeitung fachlich orientierter Servicearchitekturen [15], der serviceorientierten Integration zweier Softwaresysteme [22] über die unternehmensweite Einführung von SOA [13] bis hin zu Reorganisationsprojekten auf Basis von SOA sowie der Entwicklung serviceorientierter Softwaresysteme [44]. Die Breite des Spektrums verdeutlicht, dass über die Entwicklungsprozesse für serviceorientierte Architekturen bislang kein Konsens herrscht. Daher wird in dieser Untersuchung bewusst auf eine terminologische Eingrenzung der Vorgehensmodelle zugunsten einer kriterienbasierten Auswahl verzichtet. Während frühe Vorgehensmodelle zur serviceorientierten Systementwicklung an der technischen Realisierung ausgerichtet sind [3; 29], betonen neuere Ansätze die Relevanz betriebswirtschaftlichfachlicher Aspekte für den Entwicklungsprozess [34; 44]. Beispielhaft sei die Diskussion um eine 186 Entscheidungsunterstützung bei der Auswahl von Web Services aufgegriffen, die sich häufig an der Dienstgüte (Quality of Service), einem eher technisch ausgerichteten Kriterium, orientiert [38]. Fragen der wirtschaftlichen Nutzung von SOA werden erst im neueren Schrifttum berücksichtigt [42]. Tabelle 2: Klassifikation serviceorientierter Vorgehensmodelle Klasse Merkmal Konstruktionsprozess Herkunft Erkenntnisweg Merkmalsausprägung [1] [3] [4] [13] [15] [16] Wissenschaft — — — — ( ) ( ) Konstruktionsergebnis Hierarchisierung Individualität Perspektive — [25] [26] [28] [29] — — — — — — — — Kooperativ — — — — — — — — — — — — — — — — — — — — — — — [39] — ( ) [40] — — — — — [44] — — — — [36] — — — — [34] — Induktiv Kollaborativ Repräsentationsform [22] — Deduktiv Individuell Interaktionsgrad — Praxis [19] — — — — — — — — — — — — — — — — — ( ) ( ) — ( ) — — — — Textuelles Modell Grafisches Modell Hierarchisiert Nicht Hierarchisiert — — Spezifisches Modell — — — Serviceanbieter ( ) — ( ) Servicebroker — — — — — — — — — — — — — — — — — — — — — — — — — ( ) ( ) ( ) ( ) ( ) ( ) ( ) — — — — — — — — — — — — — — — — — — — ( ) — — — Referenzmodell — Serviceanwender SOA-Entwicklungsziel Informationssubsystem Verwendungszweck Technologische Ausrichtung Produktbezug Organisationsbezug Aufgabenbezug Anwendungsdömane Organisationssystem — Anwendungssystem Business Engineering ( ) Software Engineering Unabhängig — — — — Gebunden — — — — — — — — — — — — — — — — — — O Organisationsintern ( ) — — — — — — — — — — — — — — — — — — ( ) — — — — — — — — — — — O Aufgabenbereich O — Einzelaufgabe Domänenspezifisch — — — ( ) — — — Organisationsübergreifend — — — Produktunabhängig Produktabhängig — — — — — — — — — O — — — — — — Domänenneutral ( ) Aktivitätsorientiert SOA-unspezifische Vorgehensmerkmale Vorgehenssteuerung Ergebnisorientiert — — — Entscheidungsorientiert — — — — — — — — — — — — — — — — — — — — — — — — — — — — — Rekursiv Problemlösung Iterativ — Methodenempfehlung Parallel — — — — — — — — — — — — SOA-spezifische Vorgehensmerkmale Ergebnisdokumentation Gegenstand der Initialisierung Homogen — Singulär — — — Pluralistisch — — — Phasenbezogen — — — Durchgängig SOAEntwicklungsstrategie — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — Grafisch O — — — — — Top-Down — Middle-Out — — — — — — — — — — — — — O O O O O O — — — — — — — — — — — — — — — — — — — 187 — — — — — — O — — — — — — — O O O O — — — — — — — — — — — — O — — Evolutionär — — — — Anwendungssystem — — — O Geschäftsprozess Revolutionär — — Textuell Unternehmensstrategie SOAMigrationsstrategie — — Heterogen Keine Werkzeugunterstützung — Sukzessiv Keine Sprachempfehlung ( ) — — Inkrementell Phasenanordnung — — ( ) — — — — — — O O O O — O O O O — — — — — — — — — — Klasse Merkmal Merkmalsausprägung [1] [3] Manuell — — Semiautomatisiert — — [4] Bottom-Up Automatisierungsgrad Serviceidentifikation Technische Serviceentwicklung SOAAlignmentProzess Servicesteuerung — — — — [16] [19] [22] [25] [26] [28] [29] [34] O O — — — — — — O O — — — — — — O O — Fachlich — Technisch — — — — Berücksichtigt — O — O Nichtberücksichtigt — Keiner — — — O — — Direkt Indirekt — — — Quality of Service — — Wirtschaftlichkeit — — Prozessorientiert Servicekomposition [15] Automatisiert Keine Serviceselektion [13] O O — — O ( ) — — O — O O O O O O O O — O O O O — O O — — — — — — — — — — — — — — — — — O O O — — — — — — O O O Choreographie O O O O O O O — O Komponentenorientiert — — O O — O — O — — — Manuell O — O O O O — — O — Vordefiniert O O O O Eventorientiert O O O O — Legende: 9 Merkmal erfüllt, – Merkmal nicht erfüllt, (9) Merkmal teilweise erfüllt, — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — O — O — O O O — — — — O — — — — — O — — — — — O — O — — O O — — — O O [44] — O — — — O O [40] — Orchestrierung — [39] — — — [36] O O O Merkmal nicht zu beurteilen Eine Mehrheit von dreizehn Vorgehensmodellen sieht eine direkte [z. B. 36] oder indirekte [z. B. 40] Überführung fachlicher Serviceanforderungen des Organisationssystems in die serviceorientierte Umsetzung des Anwendungssystems vor. Jedoch bleibt die umgekehrte Rückführung von technischen Anforderungen in die Fachbeschreibungen von nahezu allen Vorgehensmodellen unberücksichtigt. In der Folge fehlt es insgesamt an wechselseitigen Synchronisationstechniken, die für eine Integration von Organisations- und Anwendungssystemen erforderlich sind. Gleichwohl bei SOA i. d. R. drei Stakeholder zu unterscheiden sind, bleiben in vielen Vorgehensmodellen Perspektiven auf die serviceorientierte Systementwicklung unberücksichtigt. Die vorliegenden Empfehlungen nehmen fast ausnahmslos die Rolle der Service-Konsumenten, d. h. der anwendenden Organisation, ein und lassen die Sichtweise der Service-Anbieter und -Broker außen vor. Dies steht im Widerspruch dazu, dass Softwareprojekte i. d. R. nicht von den Konsumenten der zu entwickelnden Anwendungssysteme durchgeführt werden. Für die erfolgreiche Abwicklung eines Softwareprojekts sind zudem Erfahrung und Fachwissen vorauszusetzen. Nicht jeder ServiceKonsument, der eine SOA-Einführung beabsichtigt, verfügt zwangsläufig über ein ausreichendes Maß an erforderlichem Fachwissen. In diesem Zusammenhang ist in Zukunft eine Veränderung de Fokus von reinen Anwendermodellen hin zu anbieterorientierten Vorgehensmodellen zu fordern. Nur wenige Vorgehensmodelle berücksichtigen organisationsübergreifende Geschäftsszenarien für die Anwendung einer SOA. Dabei verspricht die Serviceorientierung gerade für kollaborative Geschäftsprozesse größere Flexibilität und Integration. Gleichwohl gehen nur drei Vorgehensmodelle [26; 28; 34] explizit auf die Möglichkeit ein, unternehmensübergreifende Prozesse durch die Choreographie von Services abzubilden. Die übrigen Modelle beschränken sich auf eine unternehmensinterne Serviceorchestrierung bzw. nehmen keine Unterscheidung vor. Auffällig ist weiterhin, dass über die Hälfte der untersuchten Vorgehensmodelle die Frage nach einer Migrationsstrategie vernachlässigt und keine Aussage darüber trifft, wie die zu entwickelnde SOA in die bestehende Anwendungslandschaft eingebunden werden kann. In der Praxis ist diese Problematik der Integration jedoch immer aufzulösen. Für die weitere Gestaltung von Vorgehensmodellen ist die Einbindung einer Migrationsstrategie als obligatorischer Bestandteil zu fordern. 188 Darüber hinaus zeigt sich, dass eine Reihe von Vorgehensmodellen eine technische Serviceidentifikation durch die Analyse der bestehenden Anwendungssysteme vorsieht. Für die Implementierung ist dabei eine Transformation von Fragmenten der Altsysteme in Services vorgesehen. Eine solche Vorgehensweise ist nur für Serviceprovider und nicht für Serviceanwender praktikabel, da die anwendenden Organisationen in der Regel fremdbezogene, betriebliche Standardsoftware einsetzen, für die ihnen i. d. R. die erforderlichen Softwarelizenzen fehlen. Aus der Perspektive des Prozessmanagements ist zu beachten, dass nur die wenigsten Geschäftsprozesse durchgängig mit softwaregestützten Services zu automatisieren sind. Manuelle Tätigkeiten und eine Mensch-Maschine-Interaktion werden vor dem Hintergrund der zunehmenden Bedeutung von Dienstleistungs- und Wissensarbeit auch zukünftig eine bedeutende Rolle bei der serviceorientierten Systementwicklung spielen. Lediglich drei der untersuchten Vorgehensmodelle beziehen entsprechende Überlegungen mit ein [4; 16; 36]. 5. Konklusion und Ausblick Insgesamt kann das Profil der serviceorientierten Vorgehensmodelle kaum zufrieden stellen. Trotz des breiten Spektrums der Modelle offenbart die Analyse einen Rückstand des State-of-the-Art gegenüber den Potenzialen, die gemeinhin mit einer serviceorientierten Systemgestaltung verbunden werden. Dementsprechend liefert die in diesem Beitrag durchgeführte Untersuchung erstmalig eine umfassende Bewertung von SOA-Vorgehensmodellen und zeigt Verbesserungspotenziale für das Vorgehen in serviceorientierten Implementierungsprojekten auf. Der entwickelte Vergleichsrahmen bietet eine Vielzahl an SOA-spezifischen und -unspezifischen Merkmalen und ermöglicht die kritische Würdigung neu konstruierter serviceorientierter Vorgehensmodelle. Die insb. im Rahmen der Merkmalsklassifikation gewonnenen Erkenntnisse können in einem konkreten SOA-Einführungsprojekt als Entscheidungsunterstützung für die Auswahl eines Vorgehens herangezogen werden. Darüber hinaus lassen sich funktionale Anforderungen an eine IT-Unterstützung für die Einführung von SOA ableiten. Aufgrund der flexiblen Struktur kann der Vergleichsrahmen zukünftig jederzeit erweitert und um relevante Merkmale für einen spezifischen Untersuchungskontext ergänzt werden. Eine mögliche Erweiterung des Vergleichsrahmens wäre die Evaluation der Vorgehensmodelle in ihrem praktischen Einsatz im Rahmen von Anwenderbewertungen. 6. Literatur [1] [2] [3] [4] [5] [6] [7] [8] [9] [10] [11] [12] [13] [14] [15] Arsanjani, A.: Service-oriented modeling and architecture. Markham, Canada : IBM, 2004 Balzert, H.: Lehrbuch der Software-Technik : Software-Entwicklung. 2. Aufl. Heidelberg : Spektrum, 2001 Barry, D. K.: Web services and service-oriented architectures. Amsterdam : Morgan Kaufmann, 2003 Bieberstein, N.: Service-oriented architecture (SOA) compass. Upper Saddle River, NJ : IBM Press, 2006 DeRemer, F.; Kron, H.: Programming-in-the large versus programming-in-the-small. In: Proceedings of the international conference on Reliable software. Los Angeles, CA : ACM, 1975, S. 114 –121 Dostal, W.; Jeckle, M.; Melzer, I.; Zengler, B.: Service-orientierte Architekturen mit Web Services: Konzepte – Standards – Praxis. Heidelberg : Elsevier, 2005 Dustdar, S.; Krämer, B. J.: Introduction to special issue on service oriented computing (SOC). In: ACM Transactions on the Web 2 (2008), Nr. 2, S. 1–2 Engelien, G.: Der Begriff der Klassifikation. Hamburg : Buske, 1971 Erl, T.: Service-oriented architecture. Upper Saddle River : Prentice Hall PTR, 2006 Fettke, P.; Intorsureanu, I.; Loos, P.: Komponentenorientierte Vorgehensmodelle im Vergleich. In: Turowski, K. (Hrsg.): 4. Workshop Komponentenorientierte betriebliche Anwendungssysteme. Augsburg, 2002, S. 19– 43 Filß, C. et al.: Rahmen zur Auswahl von Vorgehensmodellen. In: Petrasch, R. et al. (Hrsg.): 12. Workshop der Fachgruppe WI-VM der GI. Aachen : Shaker, 2005, S. 183–227 Fremantle, P.; Weerawarana, S.; Khalaf, R.: Enterprise services. In: Communications of the ACM 45 (2002), Nr. 10, S. 77–82 Hack, S.; Lindemann, M. A.: Enterprise SOA einführen. Bonn : Galileo Press, 2007 Henderson, J. C.; Venkatraman, N.: Strategic Alignment: Leveraging Information Technology for Transforming Organisations. In: IBM Systems Journal 32 (1993), Nr. 1, S. 272–284 Jones, S.; Morris, M.: A Methodology for Service Architectures. London : Capgemini, 2005 189 [16] [17] [18] [19] [20] [21] [22] [23] [24] [25] [26] [27] [28] [29] [30] [31] [32] [33] [34] [35] [36] [37] [38] [39] [40] [41] [42] [43] [44] [45] Klose, K.; Knackstedt, R.; Beverungen, D.: Identification of Services – A Stakeholder-Based Approach to SOA Development and its Application in the Area of Production Planning. In: Österle, H. et al. (Hrsg.): Proceedings of the 15th European Conference on Information Systems, St. Gallen, Juni 2007, S. 1802–1814 Klückmann, J.: 10 Steps to Business-Driven SOA. Saarbrücken : IDS Scheer AG, 2007 Knoblich, H.: Die typologische Methode in der Betriebswirtschaftslehre. In: Wirtschaftswissenschaftliches Studium 1 (1972), Nr. 4, S. 141–147 Kohlmann, F.: Service Identification and Design – A Hybrid Approach in Decomposed Financial Value Chains. In: Reichert, M.; Strecker, S.; Turowski, K. (Hrsg.): Proceedings of the 2nd International Workshop on Enterprise Modelling and Information Systems Architectures, St. Goar, Germany, October 2007, S. 205–218 Krafzig, D.; Banke, K.; Slama, D.: Enterprise SOA. 5. print. Upper Saddle River : Prentice Hall PTR, 2006 Kreger, H.: Fulfilling the Web Services Promise. In: Communications of the ACM 46 (2003), Nr. 6, S. 29–34 Lämmer, A.; Eggert, S.; Gronau, N.: A Procedure Model for a SOA-based Integration of Enterprise systems. In: International Journal of Enterprise Information Systems 4 (2008), Nr. 2, S. 1–12 Leymann, F.: Web services: Distributed applications without limits. In: Weikum, G.; Schöning, H.; Rahm, E. (Hrsg.): BTW 2003, Datenbanksysteme für Business, Technologie und Web, Tagungsband der 10. BTWKonferenz, 26.–28. Februar 2003, Leipzig. Leipzig : Springer, 2003, S. 2–23 Malinverno, P.: Service-Oriented Architecture Craves Governance. Stamford, CT : Gartner Research, 2006 Masak, D.: SOA?: Serviceorientierung in Business und Software. Berlin : Springer, 2007 Mathas, C.: SOA intern: Praxiswissen zu serviceorientierten IT-Systemen. München : Hanser, 2008 McGovern, J.; Tyagi, S.; Stevens, M.; Mathew, S.: Java web services architecture. San Francisco : Kaufmann, 2003 Mitra, T.: Business-driven development. IBM : Markham, Canada, 2005 Nadhan, E. G.: Seven Steps to a Service-Oriented Evolution. In: Business Integration Journal (January) (2004), S. 41– 44 Noack, J.; Schienmann, B.: Objektorientierte Vorgehensmodelle im Vergleich. In: Informatik-Spektrum 22 (1999), Nr. 3, S. 166–180 Nüttgens, M.; Iskender, D.: Geschäftsmodelle für dienstebasierte Informationssysteme – Ein strategischer Ansatz zur Vermarktung von Webservices. In: Wirtschaftsinformatik 50 (2008), Nr. 1, S. 31–38 Overhage, S.; Turowski, K.: Serviceorientierte Architekturen – Konzept und methodische Herausforderung. In: Nissen, V.; Petsch, M.; Schorcht, H. (Hrsg.): Service-orientierte Architekturen – Chancen und Herausforderungen bei der Flexibilisierung und Integration von Unternehmensprozessen. Wiesbaden : DUV, 2007, S. 3–17 Papazoglou, M. P.; Traverso, P.; Dustdar, S.; Leymann, F.: Service-Oriented Computing: A Research Roadmap. In: International Journal of Cooperative Information Systems 17 (2008), Nr. 2, S. 223–255 Papazoglou, M. P.; van den Heuvel, W.-J.: Service-oriented design and development methodology. In: International Journal Web Engineering and Technology 2 (2006), Nr. 4, S. 412– 442 Parnas, D. L.: On the criteria to be used in decomposing systems into modules. In: Communications of the ACM 15 (1972), Nr. 12, S. 1053–1058 Pingel, D.: Der SOA-Entwicklungsprozess. In: Starke, G.; Tilkov, S. (Hrsg.): SOA-Expertenwissen: Methoden, Konzepte und Praxis serviceorientierter Architekturen. Heidelberg : dpunkt, 2007, S. 187–200 Sametinger, J.: Software engineering with reusable components. Berlin : Springer, 1997 Spahn, M.; Berbner, R.; Heckmann, O.; Steinmetz, R.: Ein heuristisches Optimierungsverfahren zur dienstgütebasierten Komposition von Web-Service-Workflows. In: Steinmetz, R. (Hrsg.): Technical Report, Multimedia Communications Lab, Nr. KOM-TR-2006-02, TU Darmstadt, 2006 Stein, S.; Ivanov, K.: Vorgehensmodell zur Entwicklung von Geschäftsservicen. In: Fähnrich, K.-P.; Thränert, M. (Hrsg.): Integration Engineering – Motivation, Begriffe, Methoden und Anwendungsfälle, Leipziger Beiträge zur Informatik VI. Leipzig : Eigenverlag Leipziger Informatik-Verbund, 2007 Thomas, O.; Leyking, K.; Dreifus, F.: Prozessmodellierung im Kontext serviceorientierter Architekturen. In: HMD – Praxis der Wirtschaftsinformatik 43 (2007), Nr. 253, S. 37– 46 Tsai, W. T.: Service-Oriented System Engineering: A New Paradigm. In: Service-Oriented System Engineering, 2005 (SOSE 2005) : IEEE International Workshop, 20–21 Oct. 2005 ; Proceedings. IEEE, 2005, S. 3–6 vom Brocke, J.: Serviceorientierte Architekturen – SOA. München : Vahlen, 2008 Woods, D.; Mattern, T.: Enterprise SOA: designing IT for business innovation. Beijing : O‘Reilly, 2006 Zhang, Z.; Liu, R.; Yang, H.: Service Identification and Packaging in Service Oriented Reengineering. In: Chu, W. C. et al. (Hrsg.): Proceedings of the 17th International Conference on Software Engineering and Knowledge Engineering (SEKE‘2005), Taipei, Taiwan, Republic of China, July 14 –16, 2005. Tapei, 2008, S. 620–625 Zhu, H.: Software design methodology. Amsterdam : Elsevier, 2005 190 GESCHÄFTSPROZESSMANAGEMENT Das prozessorientierte Paradigma wandelt sich zunehmend von einem funktionalen hin zu einem dienstebasierten Verständnis. Dieses ist durch einen stärkeren Grad an Flexibilisierung, Koordination und sozialer Interaktion geprägt. Neue stategische Konzepte wie Web 2.0, Empfehlungsmarketing oder Leistungsbündelung und -virtualisierung erfordern eine Weiterentwicklung prozessorientierter Methoden und Werkzeuge. Geschäftsprozessmodelle fungieren hierbei als Bindeglied zwischen Strategie und IT-gestützter Implementierung. Ziel des Tracks ist es, Konzepte und Fallstudien aus praxisnahen und anwendungsbezogenen Forschungsarbeiten unter ökonomischen, organisatorischen und IT-technischen Aspekten zu thematisieren. Es werden Beiträge erbeten, die in angemessener Form der Interdisziplinarität des Themas Rechnung tragen. Neben trackspezifi schen Fragestellungen sind insbesondere auch Beiträge mit Bezug zur thematischen Ausrichtung der Gesamttagung erwünscht. Leitungsgremium: Rony Flatscher, Wirtschaftsuniversität Wien Peter Loos, Universität des Saarlandes und IWi im DFKI Markus Nüttgens, Universität Hamburg (Federführender) Michael Rosemann, Queensland University of Technology Programmkomitee: Christian Brelage, SAP Research Jörg Desel, Katholische Universität Eichstätt Ingolstadt Andreas Gadatsch, Fachhochschule Bonn-Rhein-Sieg Helge Heß, IDS Scheer Peter Küng, Credit Suisse Peter Rittgen, Universität Boras Frank Rump, Fachhochschule Oldenburg/Ostfriesland/Wilhelmshaven (Emden) Jan vom Brocke, Hochschule Liechtenstein Michael zur Muehlen, Stevens Institute of Technology FALLSTUDIE ZUM EINSATZ AGILER, PROZESSORIENTIERTER METHODEN IN DER CHIPINDUSTRIE Mirjam Minor, Daniel Schmalen1, Andreas Koldehoff2 Kurzfassung Der vorliegende Beitrag befasst sich mit einer Fallstudie zum Einsatz Agiler WorkflowTechnologie in der Chipindustrie. Im Zentrum der Untersuchung stehen die eigens entwickelten agilen, prozessorientierten Methoden, die wichtiger Bestandteil dieser Technologie sind3. In der Fallstudie wurde eine prototypische Implementierung eines Agilen Workflow-Management-Systems verwendet. Dieser Pilot wurde in einem realen Chipentwicklungsprojekt in der Firma Silicon Image angewandt. Die Ergebnisse wurden von einem gemischten Team aus Chip-Experten und Workflow-Experten bewertet. Dabei wurden IT-technische, ökonomische und organisatorische Aspekte betrachtet. Die beiden Hauptziele der Studie waren, branchenspezifische Erkenntnisse über die Anwendbarkeit der Agilen Workflow-Technologie zu gewinnen und Hinweise zur Gestaltung von neuen Methoden und Tools für Agile Workflows zu bekommen. Die guten Resultate der Fallstudie lassen darauf hoffen, dass Agile Workflow-Technologie ein wichtiger Baustein für ein serviceorientiertes Geschäftsprozessmanagement werden könnte. 1. Einführung 1975 sagte Gordon Moore eine „Verdopplung der Transistoren je Chip alle 18 Monate“ [zitiert nach 3, S.23] voraus. Seitdem bestätigt der Markt dieses Moore’sche Gesetz mit bemerkenswerter Genauigkeit. Mit der steigenden Anzahl an Transistoren und Komponenten, die auf einem Chip integriert werden, steigt auch die Komplexität der Entwicklungsprozesse und damit der Aufwand für eine systematische Qualitätssicherung. Trotz der steigenden Komplexität muss die Chipentwicklung unter sehr engen zeitlichen Rahmenbedingungen geschehen, um am Markt Chancen auf Erfolg zu haben. Projektverzögerungen bergen die Gefahr, den gesamten Markt zu verlieren. Kann ein konkurrierendes Unternehmen ein Chipdesign oder fabrizierte Chips mit neuen Funktionalitäten schneller liefern, wird es sehr schwierig, für die eigenen Entwürfe und Produkte noch Kunden zu finden. Folglich ist es ein entscheidender Erfolgsfaktor für die Firmen, die Balance zwischen Qualität und schneller Marktreife zu halten. Prozessorientierte Methoden und Tools sind 1 Universität Trier, Wirtschaftsinformatik II, D-54286 Trier Silicon Image GmbH, Garbsener Landstr. 10, D-30419 Hannover 3 Die Autoren verwenden einen Technologie-Begriff, der sowohl die Technik (Tools, Standards, etc.) als auch die Methoden und deren Anwendung einschließt (vgl. [1, S. 653]). 2 193 in der Chipindustrie auf dem Vormarsch4. Die Methoden und Tools tragen durch die systematische Unterstützung der Chip-Entwicklungsprozesse dazu bei, den entscheidenden Zeitvorsprung zu schaffen und gleichzeitig die Qualität durch lückenlose Verifikation und Validierung der Designs zu sichern. Wichtige Grundlage hierfür ist die Spezifikation und Einhaltung eines Design Flows, der die Entwicklungsprozesse Schritt für Schritt beschreibt. Dies wird in einigen Firmen bereits betrieben und gewinnt zunehmend an Bedeutung. Als technische Mittel zur Spezifikation von Design Flows werden vorwiegend Texteditoren oder graphische Tools wie Microsoft Visio eingesetzt. Der hohe Automatisierungsgrad der Einzelschritte in der Chipentwicklung, zum Beispiel bei der Synthese eines Chiplayouts aus einer Beschreibung in HDL (hardware description logic), spricht für eine stärkere Formalisierung der Prozesse mit Orientierung am Service-Gedanken und am Workflow-Paradigma. Heutige Workflow-Technologie fokussiert darauf, Geschäftsprozesse durch automatische Unterstützung zügig abzuwickeln. Auf den ersten Blick sind bereits käufliche Lösungen, die Services mit Geschäftsprozessmanagement integrieren, für Electronic Design Automation (EDA) anwendbar, so zum Beispiel Microsoft Biztalk Server [4], IBM WebSphere Business Services Fabric [2] oder SAP NetWeaver [10]. Design Flows können damit in Standards wie Web Services Business Process Execution Language WS-BPEL [9] oder Business Process Modeling Notation BPMN [8] spezifiziert werden. Automatisierte Einzelaufgaben im Prozess können durch Services erbracht werden. Die Integration nichtautomatisierter Aufgaben („human tasks“) ist derzeit Gegenstand der Forschung, wird jedoch bald realisiert sein [12]. Wie die Unternehmenspraxis aber gezeigt hat, reicht die Flexibilität der verfügbaren, kommerziellen Lösungen für die Anforderungen der Chipindustrie nicht aus: „Eine WorkflowTechnologie, die sich nicht an Veränderungen anpasst, könnten wir nicht einsetzen“, konstatiert ein Chipexperte von Silicon Image GmbH [S. Rackow, persönliches Interview, 25. Oktober 2006]. Damit ist nicht der bloße Austausch einzelner Services und Tools im Sinne einer NeuOrchestrierung gemeint, sondern echte, strukturelle Anpassungen der Entwicklungsprozesse zur Laufzeit, wie sie die zunehmende Flexibilisierung der Chipindustrie erfordert. Dies kann zum Beispiel die Parallelisierung ursprünglich sequentieller Entwicklungs-Aufgaben sein, um die laufende Entwicklung durch den Einsatz von freischaffenden Mitarbeitern ad hoc zu beschleunigen. Agile Workflow-Technologie [14,7] widmet sich der automatischen Unterstützung von Prozessen, die einen hohen Grad an Agilität aufweisen, das heißt, die – geplant oder ad hoc – strukturelle Anpassungen zur Laufzeit erfahren. Um exemplarisch zu überprüfen, ob eine Weiterentwicklung prozessorientierter Methoden und Werkzeuge zu agiler Workflow-Technologie in der Chipentwicklung nutzbringend einsetzbar ist, wurde die vorliegende Fallstudie unter Verwendung einer eigenen, prototypischen Implementierung durchgeführt und die Ergebnisse durch ein gemischtes Team von Chipentwicklern und Workflow-Experten bewertet. Die Potenziale für intra- und interorganisationale Geschäftsprozesse in der Chipindustrie wurden durch die Chipexperten abgeschätzt. Des Weiteren ist die Fallstudie Bestandteil eines inkrementellen Entwicklungsansatzes für neue Workflow-Technologie. Die Erkenntnisse aus der Fallstudie dienen der Gestaltung der Methoden und Werkzeuge für agile Workflows. Dies gilt nicht primär der branchenspezifischen Weiterentwicklung agiler Workflow-Technologie für die Chipindustrie als vielmehr einem domänenübergreifenden Ansatz, der eine erste Evidenz aus den Ergebnissen der Fallstudie bezieht. 4 Die Autoren konnten sich bei den Chipentwicklern AMD, Cadence, Infineon und Silicon Image persönlich von der heutigen Unternehmenspraxis überzeugen. Diese Kooperation wurde vom Bundesministerium für Bildung und Forschung (BMBF) im Rahmen des URANOS-Projekts von Juli 2005 bis Juni 2008 unter Nr. 01M3075 gefördert. 194 Diese Evidenz wird unter ökonomischen, organisatorischen und IT-technischen Aspekten gewonnen. Im Folgenden wird in Kapitel 2 kurz der verwendete Ansatz zur Modellierung agiler Workflows skizziert, der in der Literatur [7] im Detail beschrieben ist. In Kapitel 3 werden Aufbau, Durchführung und Bewertung der Fallstudie vorgestellt. Schließlich gibt Kapitel 4 eine Zusammenfassung und einen Ausblick auf das weitere Vorgehen. 2. Methoden zur Modellierung agiler Workflows Workflows sind „die Automatisierung eines Geschäftsprozesses im Ganzen oder in Teilen, wodurch Dokumente, Informationen oder Aufgaben in einer durch Regeln festgelegten Abfolge von einem Bearbeiter zu einem nächsten gereicht werden können“ [15, eigene Übersetzung]. Ein WorkflowManagement-System „definiert, erzeugt und verwaltet die Abarbeitung von Workflows mit Hilfe von Software …, die die Prozessdefinition interpretieren, mit den Workflow-Teilnehmern interagieren und gegebenenfalls Tools und Anwendungen aufrufen kann“ [15, eigene Übersetzung]. Agile Workflows sind Workflows, die zur Laufzeit strukturelle Änderungen erfahren. Unser Ansatz für agile Workflows betrachtet sowohl spontane Änderungen („ad hoc changes“) als auch geplante Modellierungsvorgänge („late modeling“). Abbildung 1: Ausschnitt einer Workflow-Definition für die Chipentwicklung. Abbildung 1 zeigt einen Ausschnitt aus unserem prototypischen Modellierungswerkzeug. Dort ist ein Teil eines UML Aktivitäts-Diagrammes zu sehen [11], das eine Workflow-Definition für die Chipentwicklung graphisch darstellt. Die Workflow-Definition fungiert als Vorlage für WorkflowInstanzen, die ein konkretes Chipentwicklungs-Projekt unterstützen. In dem Workflow-Ausschnitt in Abbildung 1 folgen nach den Aktivitäten für die Projektplanung („Project planning“) und die Spezifikation der Kundenanforderungen („Customer requirement specification“) dann die Aktivitäten zur Entwicklung der einzelnen Chipbausteine („design units“) parallel zu der Integration dieser Bausteine auf oberster Ebene des Entwicklungsprojekts („Top-level project execution“). Ein „Placeholder Task“ ist ein Platzhalter für einen Sub-Workflow, das heißt eine Referenz auf eine andere Workflow-Instanz. Das Gabel-Symbol steht für die Bündelung mehrerer Aktivitäten in einer Gruppe, z.B. in der Gruppe „Design flow“. Da ein Design Flow mehrere tausend Aktivitäten beinhalten kann, ist diese hierarchische Darstellungsweise unumgänglich. 195 Abbildung 2: Ausschnitt der laufenden Workflow-Instanz für das Beispielprojekt MARVIN, die von der Workflow-Definition in Abbildung 1 abgeleitet und erweitert wurde. Die Bezeichnung „Dummy design unit“ in Abbildung 1 deutet schon an, dass es sich um ein Beispiel für einen geplanten Modellierungsvorgang handelt. Abbildung 2 zeigt die Ergebnisse der Nachmodellierung an der Workflow-Instanz für das Beispiel-Chipentwicklungsprojekt MARVIN (Megapixel Camera Interface DesignObjectTM, siehe auch Kapitel 3). Erst bei Ausführung der Aktivität „Project planning“ wird festgelegt, aus welchen Bausteinen der Chip tatsächlich bestehen soll. Folglich kann auch erst dann die weitere Struktur des Workflows modelliert werden. In MARVIN geschieht dies durch Einführung von acht Sub-Workflows für die Design units, die alle von derselben Workflow-Definition für Design units abgeleitet werden. Typische, spontane Änderungen sind zum Beispiel Änderungen der Reihenfolge von Aktivitäten oder das Einfügen zusätzlicher Aktivitäten zur Laufzeit. Die Sprache zur Modellierung agiler Workflows ist in unserem Ansatz bewusst einfach gehalten. Sie orientiert sich an den Workflow-Pattern von van der Aalst et al. [13] mit den fünf grundlegenden Kontrollfluss-Elementen Sequenz, AND-split, AND-join, XOR-split, XOR-join und mit Schleifen. Die Schleifen sind strukturierte Zyklen mit genau einem Eintrittspunkt, nämlich dem Kontrollfluss-Element Loop-join, und genau einem Austrittspunkt, nämlich dem KontrollflussElement Loop-split. Diese weit verbreiteten Sprachkonzepte wurden um zwei eigene KontrollflussElemente ergänzt, die der Agilität der Workflows Rechnung tragen: den Stoppschildern und den oben bereits beschriebenen Platzhaltern für Sub-Workflows. Stoppschilder ermöglichen Modellierungsarbeiten an einer (großen) Workflow-Instanz, während die Abarbeitung der Instanz an anderen Stellen weiterlaufen kann. Sie halten den Kontrollfluss an einer einzelnen Stelle des 196 Workflows auf, hinter der dann unbehelligt modelliert werden kann. Detailliertere Angaben zur Modellierungssprache und zur prototypischen Implementierung des Workflow-ManagementSystems finden sich in der Literatur [7,6]. 3. Aufbau, Durchführung und Ergebnisse der Fallstudie Die Anwendung der im vorigen Kapitel beschriebenen agilen Workflow-Technologie auf ein echtes Chipentwicklungsprojekt war Gegenstand einer Fallstudie beim Chiphersteller Silicon Image. Dabei wurden folgende Punkte untersucht: − − − − − Mächtigkeit und Flexibilität der Modellierungssprache Nutzeffekte für den Koordinationsaufwand im Chipentwicklungsprojekt Integration in die bestehenden Geschäftsprozesse der Firma Nutzeffekte für das Qualitätsmanagement Nutzeffekte für die intra- und interorganisationalen Geschäftsprozesse. Die Untersuchung der Modellierungssprache bildete den IT-technischen Aspekt der Studie. Sie untergliederte sich einerseits in die Frage, ob die Sprachkonzepte ausreichend mächtig waren, um ein reales Chipentwicklungsprojekt abbilden zu können. Andererseits spielte die Flexibilität des Ansatzes eine große Rolle, nämlich die Frage ob alle auftretenden Änderungswünsche durch die vorgesehenen Methoden zur Modifikation von laufenden Workflows abgedeckt werden konnten. Beim ökonomischen Aspekt der Studie war vor allem eine potenzielle Senkung des Koordinationsaufwands mit Hilfe der agilen Workflow-Technologie von Interesse. Bei den letzten drei Punkten, nämlich bei der Integration in die Geschäftsprozesse der Firma und bei den Nutzeffekten für Qualitätsmanagement und Geschäftsprozesse wurden vor allem die organisatorischen Potenziale der Agilen Workflow-Technologie beleuchtet. Das Chipentwicklungsprojekt, das im Mittelpunkt der Fallstudie stand, gehört zu einem langjährig erfolgreichen Produkt der Firma Silicon Image namens MARVIN (Megapixel Camera Interface DesignObjectTM ). Dabei handelt es sich um eine Kameraschnittstelle für Video- und Bilddaten mit einer Auflösung von bis zu 12,6 Megapixeln. Die Chips, die nach diesem Design fabriziert werden, werden in hohen Stückzahlen zum Beispiel für Mobiltelefone verkauft. Es sind mehrere Varianten des Chipdesigns mit unterschiedlichen Auflösungen auf dem Markt (MARVIN-3MP, MARVIN5MP, MARVIN-12MP). Die Chipentwickler von Silicon Image bekommen immer wieder die Aufgabe, MARVIN an neue Auflösungen anzupassen. Neben den höheren Auflösungen für leistungsfähigere Produkte werden auch oft niedrigere Auflösungen gewünscht, um die Produkte preiswerter oder kleiner zu machen. Die Fallstudie wurde im Rahmen eines solchen, typischen Anpassungsprojekts mit einer Dauer von etwa zwölf Monaten durchgeführt. Fünf Chipentwickler arbeiteten mit einem Teil ihrer Arbeitszeit am Projekt, so dass ein Gesamtaufwand von etwa drei Personal-Monaten für die MARVIN-Anpassung entstand. Für den ersten Untersuchungsgegenstand der Fallstudie, die Modellierungssprache, wurde der ursprünglich geplante Design Flow für die MARVIN-Anpassung sowie die strukturellen Änderungen des Design Flows während der Ausführung der Entwicklungsarbeiten mit dem Workflow-Management-System modelliert und ausgeführt. Es traten während der Laufzeit des Projekts sieben Änderungsgesuche („change requests“) auf. Beispielsweise stellte sich während eines Durchlaufs der Validierungs-Software heraus, dass eine Nachschlagetabelle („look-up table“) zu klein konzipiert worden war. Die vom Kunden bereitgestellten Testdaten benötigten eine größere Tabelle als vorgesehen. Die Validierung geschieht normalerweise erst relativ spät im 197 Design Flow, nämlich wenn für jede Design Unit Ergebnisse erster Probesynthesen5 vorliegen. Änderungen zu diesem späten Zeitpunkt sind meist problematisch. Im vorliegenden Fall mussten die noch laufenden Entwicklungsarbeiten zur Verfeinerung einzelner Design Units mit der angestrebten Vergrößerung der besagten Tabelle in Einklang gebracht werden. Die Koordination der zusätzlichen und der alten Aufgaben wurde mit Hilfe der agilen Workflow-Technologie bewerkstelligt. Dies beinhaltete natürlich auch strukturelle Veränderungen am laufenden Design Flow. In ganz ähnlicher Weise wurde für die Berücksichtigung der sechs anderen change requests gesorgt. Nach Ablauf des Beispiel-Projekts wurden in einem Fragebogen Antworten auf die ökonomischen und organisatorischen Fragen der Fallstudie erhoben. 100 90 80 70 60 50 40 30 20 10 0 1 2 3 4 Change-Request-Nr. 5 Abdeckung durch Sprache in % Abdeckung durch System in % 6 7 Abbildung 3: Anpassbarkeit der Workflows bei Change Requests. Die Ergebnisse des praktischen Teils der Fallstudie waren die Folgenden: Die Mächtigkeit der Modellierungssprache war geeignet um den initialen Design Flow von MARVIN abzubilden. Die Flexibilität der Modellierungssprache war mit leichten Einschränkungen ausreichend, um den Design Flow in Folge von change requests strukturell anzupassen. Abbildung 3 zeigt, dass in zwei von sieben Fällen die Modellierungssprache zwar geeignete Konzepte enthielt, um die Design Flows mit hundertprozentiger Abdeckung des change requests anzupassen, es aber leichte Probleme mit der prototypischen Implementierung gab. Bei Change Request 6 hatte das grafische Modellierungstool Schwierigkeiten, die zweite Iteration einer loop-Schleife korrekt darzustellen, so dass sie nicht wie gewünscht modifiziert werden konnte. Bei Change Request 7 trat ein Modellierungsfehler in der Workflow-Definition zu Tage: Eine fehlende Loop-Schleife führte dazu, dass ein Teil des Workflows kopiert werden musste statt dass er einfach in einer zweiten 5 Mit Synthese bezeichnet man die Transformation einer logischen Beschreibung eines Chipdesigns in eine strukturelle Beschreibung, zum Beispiel in ein sogenanntes Chiplayout, in dem schon die Platzierung von Gattern spezifiziert ist. 198 Schleifeniteration wiederholt werden konnte. Dies stellte sich als umständliche Aufgabe heraus, da das Modellierungstool das Kopieren und Einfügen noch nicht unterstützt. Keiner der sieben Change Requests hätte mit den kommerziellen Workflow-Systemen, die in der Einleitung erwähnt wurden, behandelt werden können. Die Ergebnisse der Expertenbefragung im Anschluss an den praktischen Teil der Fallstudie waren zusammengefasst die Folgenden: − Modellierungssprache: Die Experten bestätigten die grundsätzliche Eignung der Modellierungssprache und der prototypischen Implementierung des WorkflowManagement-Systems für die Unterstützung von Design Flows. Sie kritisierten allerdings die Unausgereiftheit der Implementierung bezüglich unerwarteter Loop-Schleifen. Diese Kritik ist im Einklang mit der Beobachtung im praktischen Teil, dass das System noch keine Unterstützung von Kopieren und Einfügen bietet. Das nachträgliche Einfügen von LoopSchleifen in die Vergangenheit ist nicht erstrebenswert, da dies die ansonsten streng beachtete Grundregel verletzen würde, dass die Vergangenheit nicht modifiziert werden darf. Dies würde zwar nur ein Einfügen eines zusätzlichen Kontrollfluss-Elementes (Loopjoin) in die Vergangenheit bedeuten und inhaltlich nichts verändern, könnte aber zu Diskussionen über den Einsatz des Systems zu Zwecken der Dokumentation für das Qualitätsmanagement führen. Eine benutzerfreundliche Kopierunterstützung scheint derzeit eine bessere Lösung zu bieten. − Koordinationsaufwand: Die Experten schätzten den Aufwand für Koordination der Aktivitäten in Chipentwicklungsprojekten auf durchschnittlich 10 bis 20 % der insgesamt aufgebrachten Arbeitszeit. Einsparpotenzial durch agile Workflow-Technologie wurde vor allem für große Teams mit über fünfzig Mitarbeitern und für die Einarbeitung neuer Mitarbeiter gesehen. Davon verspricht man sich eine erhöhte Produktivität. − Integration in Geschäftsprozesse: Die Integration der Agilen Workflow-Technologie in die Geschäftsprozesse der Firma wurde als mittelgut bewertet. Die Planungsprozesse wurden positiv hervorgehoben. − Qualitätsmanagement: Es wurde ein positiver Einfluss von Agiler Workflow-Technologie auf das Qualitätsmanagement erwartet. − Intra- und interorganisationale Geschäftsprozesse: Es wurden keine Veränderungen der bestehenden intraorganisationalen Prozesse durch die Einführung Agiler WorkflowTechnologie erwartet. Als Begründung wurde unter anderem angeführt, dass die Prozesse schon sehr optimal sind. Für die interorganisationalen Prozesse wurden Verbesserungen bei der Abstimmung mit anderen Firmen erwartet. Zum Beispiel übernehmen langjährige Kunden oft einen Teil der Entwicklungsarbeiten. In solchen Fällen wird eine Stärkung der Kundenbindung durch die Agile Workflow-Technologie und damit eine verbesserte Marktposition erwartet. Insgesamt hat die Expertenbefragung mit kleineren Abstrichen also eine positive Bewertung der Agilen Workflow-Technologie erbracht. Die Chipexperten sahen einige potentielle Nutzeffekte, bewerteten die technische Umsetzung aber noch als zu unreif, um die sehr dynamischen Entwicklungsprozesse problemlos damit unterstützen zu können. 4. Zusammenfassung und weiteres Vorgehen In der vorliegenden Fallstudie wurde die Anwendung Agiler Workflow-Technologie auf ein Chipentwicklungsprojekt der Firma Silicon Image untersucht. Agile Workflow-Technologie ist eine Weiterentwicklung herkömmlicher Workflow-Technologie, die Änderungen der Workflows zur Laufzeit erlaubt. Die Fallstudie erbrachte ein positives Beispiel für die Frage der 199 branchenspezifischen Anwendbarkeit von Agiler Workflow-Technologie in der Chipindustrie. Außerdem wurden wertvolle Hinweise für die Gestaltung neuer Methoden und Tools der Agilen Workflow-Technologie gewonnen. Um dem Ziel eines branchenübergreifenden Ansatzes näher zu kommen, ist im weiteren Vorgehen eine Anwendung der Agilen Workflow-Technologie auch in anderen Branchen und Domänen vorgesehen. Daneben ist geplant, die Integration der agilen Technologie mit dem BPEL Standard weiter zu betreiben, um ein serviceorientiertes Geschäftsprozessmanagement durch Agile Workflow-Technologie breiter zu unterstützen [5]. Außerdem soll der Ansatz um neue Methoden und Tools zur Wiederverwendung von Prozesswissen erweitert werden. Erste Ideen dazu sind in der Literatur [7] bereits formuliert. Unsere Vision für die Zukunft ist eine automatische Wiederverwendung von Prozesswissen, so dass die Anpassung von Workflow-Instanzen auf der Basis von Erfahrungswissen weitgehend automatisiert werden kann. Die guten Ergebnisse der Fallstudie sind ein wichtiger Schritt auf dem Weg zu einer kommerziellen Entwicklung eines agilen Workflow-Management-Systems mit den oben beschriebenen Konzepten und Methoden. Die Betrachtung IT-technischer, ökonomischer und organisatorischer Aspekte in der Studie liefert einen Beitrag zur Wirtschaftsinformatik als Mittlerin zwischen IT und Management. 5. Danksagung Die Autoren danken den Chipexperten Marko Höpken, Frank Recoullé und Stefan Pipereit (alle Silicon Image) ganz herzlich für die Unterstützung bei dieser Forschungsarbeit. Auch dem Bundesministerium für Bildung und Forschung (BMBF) gilt der Dank der Autoren für die Förderung des URANOS-Projekts unter der Nr. 01M3075. 6. Literatur [1] HEINRICH, L., HEINZL, A., & ROITHMAYR, F., Wirtschaftsinformatik-Lexikon, 7., vollständig überarbeitete und erweiterte Auflage, R. Oldenbourg Verlag, München, Wien, 2004. [2] IBM, WebSphere Business Services Fabric, 2008, http://www-306.ibm.com/software/integration/wbsf/, Stand: 12. November 2008. [3] JANSEN, D., Einführung, in: D. Jansen (Hrsg.), Handbuch der Electronic Design Automation, Carl Hanser Verlag, München, 2001. [4] MICROSOFT, Microsoft Biztalk Server Roadmap, 2008, http://www.microsoft.com/biztalk/en/us/roadmap.aspx, Stand: 12. November 2008. [5] MINOR, M., SCHMALEN, D., & BERGMANN R., XML-based Representation of Agile Workflows, in: M. Bichler, T. Hess, H. Krcmar, U. Lechner, F. Matthes, A. Picot, B. Speitkamp, & P. Wolf (Hrsg.), Multikonferenz Wirtschaftsinformatik 2008, pp 439-440, 2008, GITO-Verlag Berlin. [6] MINOR, M., SCHMALEN, D., WEIDLICH, J., & KOLDEHOFF, A., Introspection into an agile workflow engine for long-term processes, in: Proceedings of WETICE 2008, im Druck. [7] MINOR, M., TARTAKOVSKI, A., SCHMALEN, D., & BERGMANN, R., Agile Workflow Technology and Case-Based Change Reuse for Long-Term Processes, International Journal of Intelligent Information Technologies, 4(1), pp.80-98, 2008. 200 [8] Object Management Group, Business Process Modeling Notation http://www.bpmn.org/Documents/BPMN%201-1%20Specification.pdf, Stand: 28. Juli 2008. V1.1, 2008, [9] Organization for the Advancement of Structured Information Standards, Web Services Business Process Execution Language Version 2.0 Standard, 2007, http://docs.oasis-open.org/wsbpel/2.0/OS/wsbpel-v2.0-OS.pdf, Stand: 28. Juli 2008. [10] SAP, SAP Netweaver: Ideen sofort in die Tat http://www.sap.com/germany/plattform/netweaver/index.epx, Stand: 12. November 2008. umsetzen, 2008, [11] STÖRRLE, H., UML 2 für Studenten, Pearson Studium Verlag, München, 2005. [12] UNGER, T., & BAUER, T., Towards a Standardized Task Management, in: M. Bichler, T. Hess, H. Krcmar, U. Lechner, F. Matthes, A. Picot, B. Speitkamp, & P. Wolf (Hrsg.), Multikonferenz Wirtschaftsinformatik 2008, pp. 443444, 2008, GITO-Verlag Berlin. [13] VAN DER AALST, W. M. P.; TER HOFSTEDE, A. H. M.; KIEPUSZEWSKI, B.; BARROS, A. P.: Workflow patterns, Distributed and Parallel Databases, 14, 2003, pp. 5 – 51. [14] WEBER, B., & WILD, W, Towards the agile management of business processes. in: K. D. Althoff, A. Dengel, R. Bergmann, M. Nick, & T. Roth-Berghofer (Eds.), Professional knowledge management, Third Biennial Conference, WM 2005, Kaiserslautern, Germany, Revised Selected Papers, LNCS 3782, Springer, 2005, pp. 409-419. [15] WORKFLOW MANAGEMENT COALITION, Glossary http://www.wfmc.org/standards/docs/TC-1011_term_glossary_v3.pdf, Stand: 23. Mai 2007. 201 & Terminology. REDUCING THE VARIATIONS IN INTRA- AND INTERORGANIZATIONAL BUSINESS PROCESS MODELING – AN EMPIRICAL EVALUATION Dominic Breuker, Daniel Pfeiffer, Jörg Becker1 Abstract The objective of this paper is to evaluate the semantic building block-based approach as a means for intra- and interorganizational business process modeling. It is described whether and why the semantic building block-based approach reduces the variations in distributed modeling projects in comparison to traditional modeling approaches. Our argumentation is grounded on the assumption that the specification of a service-oriented architecture (SOA) requires a detailed understanding of the intra- and interorganizational business processes. In order to enable the collaboration of services the underlying process structure must be explicated. In a laboratory experiment the variations of distributed process modeling in the traditional and the building block-based approach have been compared. It could be shown that the semantic building block-based approach leads to considerably fewer variations and, thus, to a more consistent view on the intra- and interorganizational process landscape. 1. Introduction The implementation of a service-oriented architecture (SOA) requires in-depth knowledge about the underlying business processes. The identification of appropriate services and the collaboration of these services within an organization and across organizational borders presuppose a detailed process documentation. In order to collect this process information it is not sufficient to acquire single, independent processes. Rather, it is necessary to create clarity about the process landscape of an organization and its environment [3]. Therefore, modeling projects in a SOA-context are distributed with respect to personnel, location as well as time and can involve multiple organizations. Traditional business process modeling languages and methods disregard important aspects of intraand interorganizational business process modeling. Languages such as Event Driven Process Chains (EPC), Business Process Modeling Notation (BPMN), or IDEF3 do not explicitly address the issues of distributed, cross-organizational process modeling. Variations such as a deviating terminology, a varying grade of abstraction, or a different understanding of the scope of a process are not considered in the languages. The semantic building block-based approach has been 1 European Research Center for Information Systems, Leonardo-Campus 3; 48149 Münster, Germany. 203 developed to collect a large number of processes in different organizations [15]. It has been designed to minimize the variations that can occur when multiple modelers are involved. The objective of this paper is to provide empirical evidence that the semantic building block-based approach considerably reduces the variations of distributed business process modeling. The rationale behind this behavior is explained and empirically tested in a laboratory experiment. The paper proceeds as follows: In the next section the different variations within and between business process models are described that can emerge in distributed modeling projects. In the following section of this paper the fundamental characteristics of the semantic building block-based approach are discussed. The specific structure of this approach is confronted with the properties of traditional modeling languages. Subsequently, the semantic building block-based approach is evaluated in a laboratory experiment. The distributed modeling conflicts that can emerge in the building block-based approach are compared to the traditional approach. The paper closes with a short summary of the main results and an outlook to future research. 2. Variations in Intra- and Interorganizational Business Process Modeling The comparability of business process models (BPM) is an important quality criterion. In order to improve the operational efficiency of a company or public administration, BPMs are employed to suit the organizational structure to the process flow. The business processes of an organization or a value network must be analyzed in whole to get a coherent overview on the interactions between individual factors. For instance, an analysis might include questions such as: Does the process comply with the quality regulations of the organization? Are there any substantial weaknesses in the process? Is a service in two different organizations performed by the same process? How much money could be saved through the introduction of a Document Management System? As the answer to these questions usually leads to high costs, the effort needed to conduct it must be reduced. This can be achieved by creating comparable BPMs, i.e. models with a relatively small number of variations. A real world phenomenon can be represented through BPMs in many different ways. BPMs are constructed by using two different languages. The first one is the modeling language. Its meaning is at least semi-formally specified, which makes this part of a process model unambiguous. The other component of a BPM consists of a domain language. It is used to make statements about real world phenomena. In order to create a BPM, both languages must be applied together. Domain languages are owned by a linguistic community that decides on the meaning of its statements by shared conventions, which have been established implicitly by using the language. Because of the ambiguity of such natural languages it is possible to express the same meaning by different combinations of constructs and domain statements. Variations in BPMs arise from both, differing perceptions of reality and from the process of explicating this perception. A variation is a semantic or syntactic deviation between different BPMs which refer to the same or a similar real world phenomenon. They can be due to two different reasons [20]. • Variations due to varying mental representations: The mental representations of two model creators are most likely not exactly the same. This means the model creators perceive or structure real world phenomena differently. Likewise, they can, consciously or unconsciously, consider deviating aspects of the phenomenon as relevant. This can lead to BPMs at diverse levels of abstraction. Likewise, in these models the sequence of activities can vary or the model elements can be annotated with a different number of details. 204 • Variations due to the explication: Even when the model creators share “the same” mental representation variations can arise. These variations result from a different explication of the mental representations. Domain and modeling languages offer certain degrees of freedom to express a given fact. Model creators can utilize this freedom in diverse ways. For example, different domain statements can be chosen to express a specific aspect of the mental representation. Similarly, a model creator may have the choice between multiple constructs to describe a given fact. Thus even with an equivalent mental representation, different BPMs with corresponding conflicts can emerge. Deviations between models have been investigated empirically especially in the context of structural models. UML Class Diagrams have been analyzed in multiple modeling experiments [e.g., 9]. Other empirical studies have focused mainly on the advantages of specific constructs in comparison to alternative forms of representation, such as entity types and attributes [18], properties of relations [6], optional properties [5], or whole-part relations [19]. There are only a very few empirical studies that refer to variations in process models. Mendling et al. [12], for example, have analyzed the SAP Reference Model to identify errors and inconsistencies. Gruhn and Laue [8] have investigated the role of OR-connectors in EPC models. Beneath these empirical studies, conflicts between models have theoretically been discussed in the database schema matching and integration literature [e.g., 1], in publications about metamodeling [e.g., 16], and ontology engineering [7]. In this paper we draw upon Pfeiffer [15] who has derived a comprehensive theoretical analysis of the variations in the context of business process modeling. This encompasses type variations, occurring when two model elements of different types have the same meaning, synonym variations, occurring when the labels of two model elements with the same meaning differ, homonym variations, occurring when two model elements with different meaning have the same label, abstraction conflicts, occurring when model elements in two different model have a deviating level of abstraction, control flow variations, occurring when the number of control flows of two corresponding model elements differ, annotation variations, occurring when corresponding model elements in two different models have a different number of annotated model elements, order variations, occurring when the order of two model elements is permuted between two BPM, and separation variations, occurring when a model element has no corresponding model element in the second model with the same, a more specific or a more general meaning. 3. Traditional and Semantic Building Block-based Process Modeling The application of traditional business process modeling languages leads to business process models that are hard to compare. Every model created with a traditional language can include many of the variations described in the previous section of this paper. For instance, an EPC basically consist of events and functions, whose semantics are essentially defined by the domain statement the modeler assigns to it [10]. Only by applying various rules and modeling conventions, comparability between the BPMs can be achieved. The creation as well as the implementation of such regulations within a specific modeling project involves significant efforts. By using a business process modeling language which belongs to the semantic building blockbased approach, the comparability of the resulting business process models can be significantly improved. These semantic building block-based languages (SBBL) achieve this advantage by avoiding the conflicts that occur when traditional modeling languages are used [14]. The semantic building block-based approach guides the modeler through the modeling process and restricts him in his decisions. By decreasing the choices a model creator can make during the model construction, the comparability of the BPMs can be increased [15]. 205 The main modeling construct of the language class SBBL is the so called process building block (PBB). PBBs limit the degree of freedom within the process of model creation. Unlike traditional business process modeling languages the SBBLs employ PBB as their most important modeling constructs. Every PBB represents one or more reoccurring activities from a particular domain [11]. The difference between a PBB and a modeling construct from a traditional language is that the PBB already incorporates a domain statement. Modelers do not create and assign a domain statement to a construct, they can only choose from a given set of PBBs and, thereby, from a given pool of statements. Thus, the PBB are semantically specified and have a defined level of abstraction [17]. If additional information is needed, the PBB can be further described by a predefined set of attributes. Concerning their semantics, the PBB are unambiguously and mutually exclusively defined. To specify the constructs of a SBBL, a domain ontology is used. Every PBB stands for a set of elements taken from this ontology. Hence, the meaning of a PBB is explicitly defined. With the aid of the ontology, it is possible to ensure that no element of a SBBL contains semantics already covered by another element of this language. Given a real world phenomenon, there exists only a single possibility to represent it in a SBBL-based language. In ideal, every construct would be derived from the domain ontology, but from a practical perspective it is often necessary to include at least some constructs from other languages. For instance, this could be a construct to split up and join the control flow. Imagine that the ontology element ‘encash/receive a payment’ has been incorporated into a SBBL as a PBB. Also its corresponding attribute, ‘Information System’, is taken from the domain ontology. This encompasses not only the attributes themselves, but also their possible values. In the given example, the attribute ‘Information System’ may have only three allowed values: ‘Open Office’, ‘MS Office’ and ‘MS Money’. The available labels for the PBB, which specify the domain task more detailed, are defined in the same manner. For the PBB ‘encash/receive a payment’, the labels ’encash/receive a cash payment’, ‘encash/receive a credit card payment’, and ‘encash/receive a money transfer’ might be allowed. Languages from the class SBBL either avoid or at least decrease the previously described variations between BPMs. By using the semantic building block-based approach, some types of variations between models can be fully eliminated. Other variations can still occur, but their frequency can be significantly reduced. In the following the impact of the language class SBBL is discussed with regard to the five variation types considered: • Synonym variations: Because of the fact that the constructs of languages from the class SBBL are derived from an ontology, they offer a controlled vocabulary to the modeler. Synonyms can be detected in the ontology, which makes it possible to eliminate them in advance of the model creation. Hence, as long as the modeler can only choose from the given vocabulary of a SBBL, no synonym variations can occur. • Type variations: During the language construction, it is ensured that no semantically overlapping modeling constructs are included in the SBBL. If every PBB and every attribute of the language is semantically disjoint, it can be proven that no type variation can occur [14]. For every observable real world phenomenon only one single constructs exists which is able to represent it within the language. Therefore, every modeler who wants to describe the phenomenon is forced to use same construct. • Abstraction variations: The type in combination with the label defines the semantics of a PBB. Because every PBB is semantically disjoint from the others, every modeler has to choose the same PBB to express a specific matter. Thus, the number of possible choices for the selection of domain statements and, thereby, also the number of abstraction variations is 206 reduced. To completely avoid them, a specific level of the ontology has to be defined from which all the domain statements of a model have to originate. • Separation variations: This type of variation cannot be entirely removed from models created with the language class SBBL. Nevertheless, it can be at least reduced because during model construction the modeler is guided by the ontology-based PBBs he can choose from. With the meaning of the PBBs in mind, he focuses on the semantics covered by them. Therefore, the models better fit to each other concerning the semantics they express. • Order variations: Just like the separation variations, this type of variation cannot be completely avoided. In traditional modeling languages, it is hardly feasible to make any statements about the correct order of specific elements on the basis of their type. In contrast to that, the semantic building block-based approach allows to define heuristic order rules based upon the predefined semantics of the PBBs. For example, it is reasonable that the activity ‘approve’ always follows the activity ‘perform a formal verification’. The creation of languages from the class SBBL can only be accomplished successfully with a specific domain in mind. In order to be able to express every real world phenomenon by using a modeling language of this type, it is necessary to restrict the application to a specific domain. Otherwise, no appropriate ontology can be created due to the complexity of the real world. Hence, languages from the class SBBL are domain specific languages. A well documented example for such a language is the PICTURE-language, which is specifically designed for public administrations [2]. It consists of 24 PBB and over 50 attributes. The PBBs in PICTURE can only be connected in a sequential form. For an in-depth description of the language, we refer to [2]. A detailed analysis of the expressiveness can be found in [4]. 4. Evaluation of Semantic Building Block-based Process Modeling The hypothesis to evaluate is that modeling with a semantic building block-based language results in a smaller number of variation compared to traditional modeling languages. In order to do this, an empirical evaluation was conducted. EPC was chosen as an example of a traditional modeling language, PICTURE as an example for a domain specific one. Within a laboratory experiment, twelve graduate students from the University of Muenster were asked to create an EPC and a PICTURE model independently from each other based on a given case description taken from the domain of public administrations. This case description was used to examine the variability between BPMs in both languages. This experimental setup simulates the process of distributed modeling and facilitates the validity of the analysis for two reasons. Firstly, all participants are modeling the same situation, which eliminates the case description as a source of variability. Secondly, every participant creates both an EPC and a PICTURE model. Thus, all variations resulting from a different understanding of the case description or from deviating opinions about the adequate degree of detail or abstraction influence the modeling process of both languages in the same way. The remaining variations can be fully explained by the process of explicating the mental representations of a participant in the form of a process model. The analysis has been carried out in two steps: • Automated analysis: In the first step, both EPC and PICTURE models are tested for similarity with an automated comparison algorithm [21]. This algorithm has been designed to quantify the similarity of the process flow as well as to detect and resolve problems resulting from the ambiguities of natural languages. The applicability of the algorithm has been demonstrated empirically by using the SAP Reference Model. 207 • Manual analysis: The second step is, in contrast to the first one, conducted manually to reconfirm the results from the automated comparison. In order to do this, the authors analyzed the BPMs from both groups to find and quantify variations from the types described above. If a high degree of similarity between the two models is found in the automatic analysis then a small number of variations can be expected in the manual analysis. The automated analysis of the models only provides a percentage value of similarity. Because the analysis is conducted manually in the second step, the nature of the variations can be explored in more detail. 4.1. Characteristics of the Automated Analysis The comparison algorithm which has been used to determine the degree of similarity between the BPMs can be used for both PICTURE and EPC models in the same way. This is ensured by the fact that the models themselves are not used for the similarity calculation. Instead, the result is computed by using what is called a causal footprint. A casual footprint can be derived from the BPM. It is a directed graph whose vertices represent the various activities in the process. Vertices are connected by arcs whenever the corresponding activities of the vertices are always performed either before or after one another. In the first case, the arc is called a look-back-link, in the second case it is a look-ahead-link [22]. If, for example, there is an arc connecting the vertices A and B, this means that, depending on the type of the arc, activity A is either always performed before activity B or after it. In order to finally execute the comparison, the causal footprints of the models must be transformed into vectors. Their similarity is then determined by the deviation of their directions. For more details concerning the transformation, we refer to [21]. The comparison algorithm is able to identify ambiguities of natural languages within the labels of the model elements. To calculate the similarity of BPMs, common elements must be identified. Therefore, equivalent vertices need to be identified in order to compare two footprints. Natural languages allow expressing the same real-world concepts in different ways. This hampers the automatic identification of similar or equivalent activities. In order to deal with this problem, the comparison algorithm uses the lexical database WordNet, which allows to detect synonyms [13]. With the aid of this information, the semantic similarity of activities can be computed. Comparing the similarity score of an activity and of all elements connected to it, it is possible to map equivalent activities of different process models [21]. The comparison algorithm determines the similarity of process models regarding their content and their respective process flow. The causal footprint consists of both the vertices representing activities themselves and look-ahead as well as look-back-links, which stand for the procedural relations of the activities. Therefore, the comparison does not only consider the similarity regarding the content, but also takes the process flow into account. 4.2. Results of the Automated Analysis 12 BPMs from each group were compared pair-wise with each other. This resulted in a total of 66 comparisons for each group. Within the group of the EPC models, an average similarity of 0.54% has been measured. The maximum similarity was 4.02%, the minimum was 0%. This means that the comparison algorithm perceived the BPMs as being totally different. In contrast, the PICTURE 208 models achieved an average similarity of 43.75%. Some comparisons resulted in a value of 100%, which means that the models were identical. Other PICTURE models scored lower values as well. The minimum value was 13.99%. Detailed results are described in Figure 1. In this diagram the average similarities of the individual BPMs compared to all other models are depicted. Figure 1-I presents the similarity values for the PICTURE and the EPC group on a single scale, Figure 1-II uses separate scales instead. Figure 1: Average similarity degrees for PICTURE and EPC models 4.3. Characteristics of the Manual Analysis Detailed statements about the nature and the degree of variability between BPMs can only be given manually. A framework, which classifies possible variations between process models into different categories, was introduced in Section 2. To identify these variations in process models, a semantic analysis of BPMs is necessary. Thus, a specific meaning needs to be assigned to every model element according to the modeler’s intention. By this means, an ontology which describes the whole semantic of the case description has been developed. Thereafter, it was possible to assign statements of this ontology to every model element. The intended meaning had to be carefully explored by the authors. With the resulting assignments, the basis for the identification of variations was established. When variations are identified they need to be counted in compliance with strict rules to assure a reasonable quantification of the variability. With the previously given definitions, variations can easily be identified. But the definition alone was not sufficient to generate a meaningful result. A set of rules for quantifying the identified variations had to be developed. They allowed for a consistent and uniform measurement. For example, rules were designed to prevent counting some variations multiple times. Different types of variations were not weighted, because there was no information about the extent to which an individual type of variation influences the comparability of BPMs. With the given experimental setup, a reasonable measurement of homonym, control flow, and annotation variations was not possible. All models were created on the basis of the same case description. This makes the measurement of homonym variations difficult, because they occur when different concepts are expressed by the same terms. This usually happens in complex systems of different BPMs, however, not within a single case. Annotation conflicts were not measureable because no attributes were used within the EPC and only a fixed set of attributes within the PICTURE models. The PICTURE as well as the EPC language has strict rules concerning the 209 incoming and outgoing control flows. In fact, only the AND, OR, and XOR operators from the EPC language allow for deviating numbers of control flows. Hence, no control flow variations were detectable during the analysis. 4.4. Results of the manual analysis Within the variation analysis an average of 31.93 variations between EPC models were identified. An average of 12.59 of these variations were synonym variations, 5.95 were abstraction variations, 10.70 were separation variations, 2.15 were type variations, and 0.53 were order variations. The group of the PICTURE models scored an average value of 4.59 variations. It consists of 0.63 synonym variations, 0.83 abstraction variations, 1.77 separation variations, and 1.32 type variations. Order variations were not fount between PICTURE models. A comparison of the results can be found in Figure 2. Figure 2: Numbers of variations for PICTURE and EPC according to the different variation types 4.5. Discussion of the results The results of the automated similarity calculation are confirmed and further detailed by the manual analysis. While the automatic analysis can hardly find any commonalities between EPC models, it provides very good results for PICTURE models. In compliance with these results, the manual analysis shows a significantly higher number of variations of any kind for EPC models compared to PICTURE models. These results support assumption that the automated analysis is correct and further specify the results by categorizing the variations. The semantics of BPMs that contain natural language elements cannot be captured automatically. The use of ontology-based labels for the PBBs in PICTURE actually results in a massive reduction of synonym variations compared to EPC. Although the algorithm used is build to detect synonyms, the low similarity degrees for EPC models imply that it fails to do so in most of the cases. The avoidance of many synonym variations by PICTURE in parallel with the high similarity degrees indicates that synonym variations cannot be resolved automatically. The degree of detail and abstraction are fixed when using a SBBL-based modeling language. The limitation of the number of choices a modeler can make within the modeling project when he is 210 using a SBBL in fact increased the comparability of the created models. A significant decrease of abstraction and separation variations in the manual analysis supports this conclusion. It remains to be demonstrated that the expressiveness of a SBBL is sufficient. The increased comparability of models created with a SBBL leads to a decreasing expressiveness because of the predefined semantics of the PBBs. It is possible that the modeler is that limited in his decisions that he is not able to represent all relevant real world facts by using the PBBs. Hence, the creation of a SBBL is very time consuming and error prone. This analysis only shows that the language class SBBL produces models with a higher degree of comparability, but it does not take the expressiveness of the models into account. 5. Conclusion The starting point of this paper was the insight that service-oriented thinking presupposes detailed knowledge about the business processes of an organization and its environment. We identified business process modeling as a way to explicate the relevant process knowledge. However, traditional business process modeling languages only provide little support for distributed modeling scenarios. The objective of this paper was to evaluate the semantic building block-based approach for the purpose of interorganizational business process modeling, in particular with respect to semantic variations within and between BPMs. In a laboratory experiment that simulated a distributed modeling project the potential advantages of the language class SBBL have been analyzed. Both an automated and a manual approach were chosen to compare the performance of the two languages EPC and PICTURE. The results of the analysis demonstrate that the type of the language has a strong influence on the number of variations in the resulting BPMs. PICTURE as an example of the language class SBBL considerably decreased the number of variations and, thereby, improved the quality of the corresponding BPMs. However, the number of variations is only one component of the evaluation of the semantic building block-based approach. Furthermore, it is necessary to assess the efficiency and the effectiveness of the resulting languages. Efficiency means that a SBBL-based modeling language is able to acquire a specified number of processes at minimal cost. Effectiveness requires that a language of the class SBBL is expressiveness enough to describe the relevant phenomena of the domain at hand. In other words, effectiveness makes sure that the modeling language can indeed be successfully applied in a given domain. An empirical analysis of these two aspects is open to further research. Acknowledgements The work published in this paper is partly funded by the European Commission through the STREP PICTURE. It does not represent the view of European Commission or the PICTURE consortium and the authors are solely responsible for the paper's content. References [1] BATINI, C., LENZERINI, M., NAVATHE, S. B., A comparative analysis of methodologies for database schema integration. ACM Computing Surveys Vol. 18 (1986), pp. 323-364. [2] BECKER, J., ALGERMISSEN, L., FALK, T., Prozessorientierte Verwaltungsmodernisierung. Springer, Berlin 2007. [3] BECKER, J., ALGERMISSEN, L., FALK, T., PFEIFFER, D., FUCHS, P., Model based identification and measurement of reorganization potential in public administrations: the PICTURE-approach. In: Proceedings of the 10th Pacific Asia Conference on Information Systems (PACIS 2006), 2006, pp. 860-875. 211 [4] BECKER, J., ALGERMISSEN, L., PFEIFFER, D., RÄCKERS, M., Local, participative process modelling: the PICTURE-approach. In: Proceedings of the 1st International Workshop on Management of Business Processes in Government (BPMGOV 2007) at the 5th International Conference on Business Process Management (BPM 2007), 2007, pp. 33-48. [5] BODART, F., PATEL, A., SIM, M., WEBER, R., Should optional properties be used in conceptual modelling: a theory and three empirical tests. Information Systems Research Vol. 12 (2001), pp. 384-405. [6] BURTON-JONES, A., MESO, P., How good are these UML diagrams: an empirical test of the Wand and Weber good decomposition model. In: Proceedings of the 23rd International Conference on Information Systems (ICIS 2002), 2002, pp. 101-114. [7] DAVIS, I., GREEN, P., MILTON, S., ROSEMANN, M., Using meta models for the comparison of ontologies. In: Proceedings of the 8th International Workshop on Evaluation of Modeling Methods in Systems Analysis and Design (EMMSAD 2003) at the 15th International Conference on Advanced Information Systems Engineering (CAiSE 2003), 2003, pp. 1-10. [8] GRUHN, V., LAUE, R., What business process modelers can learn from programmers. Science of Computer Programming Vol. 65 (2007), pp. 4-13. [9] HADAR, I., SOFFER, P., Variations in conceptual modeling: classification and ontological analysis. Journal of the Association for Information Systems Vol. 7 (2006), pp. 568-592. [10] KELLGER, G., NÜTTGENS, M., SCHEER, A.-W., Semantische Prozessmodellierung auf der Grundlage "Ereignisgesteuerter Prozessketten (EPK)". Veröffentlichungen des Instituts für Wirtschaftsinformatik Vol. 89 (1992) [11] LANG, K., GLUNDE, J., BODENDORF, F., A framework for reusable reference process building blocks. ACM SIGGROUP Bulletin Vol. 18 (1997), pp. 68-70. [12] MENDLING, J., MOSER, M., NEUMANN, G., VERBEEK, H. M. W., VAN DONGEN, B. F., VAN DER AALST, W. M. P., Faulty EPCs in the SAP reference model. In: Proceedings of the 4th International Conference Business Process Management (BPM 2006), 2006, pp. 451-457. [13] MILLER, G. A., WordNet: a lexical database for English. Communications of the ACM Vol. 38 (1995), pp. 3941. [14] PFEIFFER, D., Constructing comparable conceptual models with domain specific languages. In: Proceedings of the 15th European Conference on Information Systems (ECIS 2007), 2007, pp. 876-888. [15] PFEIFFER, D., Semantic business process analysis - building block-based construction of automatically analyzable business process models Westfälische Wilhelms-Universität Münster 2008 [16] ROSEMANN, M., ZUR MÜHLEN, M., Evaluation of workflow management systems: a meta model approach. The Australian Journal of Information Systems Vol. 6 (1998), pp. 103-116. [17] RUPPRECHT, C., FUNFFINGER, M., KNUBLAUCH, H., ROSE, T., Capture and dissemination of experience about the construction of engineering processes. In: Proceedings of the 12th International Conference on Advanced Information Systems Engineering (CAiSE 2000), 2000, pp. 294-308. [18] SHANKS, G., NUREDINI, J., TOBIN, D., MOODY, D. L., WEBER, R., Representing things and properties in conceptual modelling: an empirical evaluation. In: Proceedings of the 11th European Conference on Information Systems (ECIS 2003), 2003, pp. 1-17. [19] SHANKS, G., TANSLEY, E., NUREDINI, J., TOBIN, D., WEBER, R., Representing part-whole relationships in conceptual modeling: an empirical evaluation. In: Proceedings of the 23rd International Conference on Information Systems (ICIS 2002), 2002, pp. 89-100. [20] SOFFER, P., HADAR, I., Applying ontology-based rules to conceptual modeling: a reflection on modeling decision making. European Journal of Information Systems Vol. 16 (2007), pp. 599-611. [21] VAN DONGEN, B. F., DIJKMAN, R., MENDLING, J., Measuring similarity between business process models. In: Proceedings of the 20th International Conference on Advanced Information Systems Engineering (CAiSE 2008), 2008 [22] VAN DONGEN, B. F., MENDLING, J., VAN DER AALST, W. M. P., Structural Patterns for Soundness of Business Process Models. In: Proceedings of the Proceedings of the 10th IEEE International Enterprise Distributed Object Computing Conference (EDOC'06), 2006, pp. 116-128. 212 TUPLESPACE-BASED INFRASTRUCTURE FOR DECENTRALIZED ENACTMENT OF BPEL PROCESSES Daniel Wutke, Daniel Martin, Frank Leymann1 Abstract Business processes in WS-BPEL are a manifestation of the two-level-programming paradigm where remote-accessible Web services are composed to potentially complex orchestrations. WSBPEL processes are executed by Workflow Management Systems that navigate through the process' activities and interact with the orchestrated services. While Web service technology enables interactions with remote services, process navigation is typically done in a centralized manner. Especially in scenarios of complex interactions between multiple distributed process participants, this way of process enactment has several drawbacks. In this paper, we outline those drawbacks and propose an alternative approach to execution of BPEL processes in a distributed, decentralized manner. 1. Introduction The Service Oriented Architecture (SOA) [1] is an approach to integrating enterprise applications in a flexible and loosely coupled manner. SOA is built on the notion of services, which are realizations of self-contained business functions and provide a service requester with an abstract view on business functions. An important aspect of SOA is service composition, in this context also referred to as service orchestration. The Web Service Business Process Execution Language (WS-BPEL or BPEL for short) [4] is the de-facto standard for describing workflow-like orchestrations of Web services. Following the twolevel-programming paradigm [5], compound services, i.e. business functions, are composed to new composite applications which then again can be exposed as services to facilitate further composition. BPEL offers a range of activities comprising (i) activities for defining process control flow (e.g. sequence, flow, switch, while), (ii) activities describing interaction with Web services (e.g. invoke, receive, pick, …), and (iii) activities that provide the necessary glue between activities (e.g. assign). In addition, BPEL defines the concept of variables for storing process-internal data such as intermediate processing results on a per-instance basis. To enable process execution, a BPEL process model, once created, is deployed to a Workflow Management System (WfMS); in case of BPEL, the WfMS exposes the process to potential users after process deployment through a Web service interface. Triggered by incoming user requests that match the conditions defined in the process model, processes are instantiated and their execution is started which comprises continuous 1 Institute of Architecture of Application Systems, University of Stuttgart, Germany 213 evaluation of process control flow and execution of activity implementations. Process execution in BPEL is control-flow driven; process control flow is defined through so-called structured activities which, similar to control constructs known from other programming languages, define the order of activity execution or the flow of the program. As of today, process control flow is typically evaluated by the navigator component of a centralized WfMS. The term centralized refers to the workflow engine conceptually being regarded as one single entity. Note that while it is possible to provide an implementation of a WfMS that can be distributed among a number of nodes in a clustered environment [6], the general assumption still is that the clustered nodes operate within the same administrative domain, for instance the same department of an enterprise. During evaluation of process control flow, the navigator component of the WfMS decides based on the current state of a process instance which BPEL activities are to be executed next and starts their execution. This navigation process continues until process instance execution is completed. While structured activities define the order in which activities are executed basic activities reflect pieces of application code that are to be evaluated during process execution; two classes of basic activities can be distinguished according to whether they involve interaction with WfMS-external applications or not. Activities such as assign or wait are provided by the WfMS itself, hence their execution does not require any interaction with WfMS-external entities. Interaction activities, which interact with the actual compound application logic (i.e. the “business functions”) orchestrated by the process such as invoke and receive, trigger an interaction of the WfMS with WfMS-external applications. Since, in case of BPEL, these applications are Web services [2, 3] which can be invoked remotely using potentially various network transport protocols ( enabled through the mechanism of Web service bindings ), BPEL allows for distributed application logic. Hence one can say that the current way of executing BPEL processes relies on centralized (i.e. local) execution of process control flow and distributed application logic through the use of Web service technology. While the aforementioned way of executing BPEL processes is appropriate for a wide range of scenarios, it has severe drawbacks in other scenarios. These are discussed in Section 2 where we motivate our work through an example scenario and a discussion of the benefits resulting from decentralized execution of process control flow. In Section 3, we introduce the proposed approach to decentralized execution of BPEL processes and outline the process model and the system architecture; this comprises a description of (i) the functional building blocks of the system and (ii) how they interact in order to facilitate decentralized process execution. In addition, the supported spectrum of distributed process execution is presented and discussed in detail. Section 4 provides an overview of related work in the area of distributed workflow management systems, process fragmentation and process outsourcing. Section 5 concludes the paper and gives directions for further research. 2. Motivation for Decentralized BPEL Navigation In Figure 1, a common business process scenario is presented. Process participant P1 provides the depicted process model to users through a regular, centralized BPEL engine which is responsible for evaluating process control flow (depicted as drawn through arcs) that defines the order in which the activities (depicted as black filled circles 1,…,6) are executed. Process instance data is stored in variables a and b. Variable access is depicted through dashed arcs; for the examples presented in the paper no distinction is made between read- and write access. Activities 2, 4 and 5 are interaction activities (e.g. invoke activities) that involve remote communication with WfMSexternal Web service implementations provided by process participant P2. Note that the output value a of interaction activity 2 is used as input for interaction activity 4. Suppose that remote Web service interactions between P1 and P2 are relatively expensive due to e.g. low communication channel bandwidth and high latency and suppose furthermore that the data contained in variable a 214 is rather large in size. If the process is executed as depicted in Figure 1 (i.e. following the established model of BPEL process execution through centralized process navigation), each invoke activity results in one remote interaction between P1 and P2. This in turn requires shipping the result of the Web service interaction with P2 through activity 2 back to the process engine at P1 and subsequently passing the same received value again back to P2 as part of the Web service interaction through activity 4. Abbildung 1: Centralized Process Execution Clearly, the traditional BPEL model of centralized process execution and distributed Web service business logic is sub-optimal in the presented scenario, since it requires (i) a high number of remote interactions which might have an impact of the performance of process execution due to e.g. high latency of the communication channel and (ii) unnecessary shipping of potentially large amounts of data between P1 and P2. Abbildung 2: Decentralized Process Execution In Figure 2, the same process model and Web services are presented; however, in this scenario, the execution of the BPEL process itself is split among P1 and P2 by moving the execution of the orchestration of activity implementations 2, 4 and 5 along with variable a from P1 to P2. As a result, after activity 1 has completed successfully, process control flow is passed to activity 2 which is provided by P2. Activities 2, 4, and 5 are then executed by P2, including the involved interactions with the WfMS-external Web services and the WfMS-internal storage of the process instance data in variable a. Since this interaction is done directly at the side of P2 (e.g. within the same local network), impact of communication between WfMS and service on service invocation time is reduced. Note that since there are no additional inter-dependencies between activity 3 and 215 activities 2, 4, 5, activity 3 can run at P1 independently of P2; furthermore, the need for shipping the data of a between P2 and P1 is removed. Once execution of activity 5 has finished, process control flow is passed back from P2 to P1. When both 3 and 5 have completed their execution successfully, the condition for the execution of activity 6 is fulfilled and process execution continues at P1. While the aforementioned example scenario focuses on the performance increase resulting from shifting evaluation of process control flow as close to the actual compound business functions that are orchestrated by the respective process, other reasons can be decision drivers for this approach as well. Process models might be fragmented among a number of participants, for instance different departments of the same company for organizational reasons, or even different companies for the reasons of process outsourcing [7]. 3. System Model and Architecture To counteract the aforementioned drawbacks that result from the traditional model of centralized execution of BPEL process control flow and distributed business functions in form of Web services, we proposed another approach to execution of BPEL processes that allows for arbitrary distribution of process control flow execution among the participants of a process [8]. As discussed in Section 2, the basic goal of the approach is to shift coordination logic (i.e. the evaluation of process control flow) as close to the orchestrated application logic as reasonable. This is achieved through a token passing and sharing technique over remotely accessible, shared and distributed tuplespaces. Tuplespaces have their origin in the Linda coordination language, defined by [9] as a parallel programming extension for traditional programming languages (e.g. C, Prolog) for the purpose of separating coordination logic from program logic. The Linda concept is built on the notion of a tuplespace. A user interacts with the tuplespace by storing and retrieving tuples (i.e. an ordered list of typed fields) via a simple interface: tuples can be (i) stored (using the out operation), (ii) retrieved destructively (in) and (iii) retrieved non-destructively (rd). Tuples are retrieved using a template mechanism, e.g. by providing values of a subset of the typed fields of the tuple to be read (associative addressing). Matching tuples are selected non-deterministically. Also, concurrent destructive reads are non-deterministic, i.e. the receiver of the tuple is chosen randomly. With respect to the degree and dimensions of decoupling they provide, Tuplespaces are conceptually similar to e.g. message-oriented middleware (see [10, 11,12] for comparisons of both technologies). Abbildung 3: Process navigation through token passing The overall approach to BPEL process navigation is depicted in Figure 2. Control flow is represented as control flow (CF) tokens (C1, C2, C3). CF tokens are encoded as tuples and communicated between the activities the process is composed of (depicted as boxes 1, 2, 3, 4) by storing them to and retrieving them from remote-accessible tuplespaces (depicted as circles); note that the term “activity” does not only refer to the Web services that the process orchestrates but also to activities whose implementations are provided by a WfMS itself, e.g. the assign activity. CF 216 tokens comprise information such as identifiers of the process model and process instance the CF token belongs to and the control flow link that the token represents. Negative process control flow, i.e. errors occurring during activity executions, is propagated between activities through so-called dead path (DP) tokens that are analogous to CF tokens in structure. DP tokens are necessary to facilitate dead path elimination [4]. A more detailed description of the Petri net-based process model is available in [8,25]. Activity implementations are realized as tuplespace clients waiting for their starting condition being fulfilled; in the remainder of the paper, activity implementations are also referred to as activity clients. The starting condition of an activity is expressed by the activity client through (i) templates describing the CF or DP tokens produced by its predecessor activity (or activities in case of activities that join multiple concurrent execution paths) and (ii) identifiers of the tuplespaces the corresponding tokens are to be consumed from. In Figure 2, CF token consumption operations are depicted as incoming arcs of an activity implementation. Note that these consumption operations are always synchronizing, i.e. they block until all input tokens are available and can be consumed by the respective activity client. Once the starting condition of an activity client is fulfilled, the CF or DP tokens are destructively consumed by the respective activity client and the corresponding application logic of the activity is executed. For activity executions most activity implementations require access to process instance data, i.e. variables; in the proposed model, process instance data is represented as a certain token type, called DATA token, that associates a certain variable of an instance of a particular process model with a value. If necessary, process instance data is consumed non-destructively or updated by the activity client during its execution (depicted as dashed incoming arcs of an activity client). Once the execution of a client’s application logic has finished, corresponding CF, DP or DATA tokens are produced (in case of CF and DP) or updated (in case of DATA) depending on success or failure of activity execution; the produced tokens are stored in the tuplespace(s) the subsequent activity clients monitor for control flow tokens (depicted as outgoing arcs of activity clients). As one can see from the aforementioned high-level description of the proposed model, tuplespaces are used as buffers for any kind of data that is communicated between the entities participating in process execution; this comprises both tuples representing process control flow (communicated via token passing) and tuples representing process instance data (communicated via token sharing). A number of reasons motivate choosing the tuplespaces as communication paradigm and platform underlying the presented approach; these are outlined in the following. Tuplespaces have a clearly defined interface that is characterized by a number of unique features not found in alternative communication middleware such as e.g. messaging technology [13]. This interface supports operations for destructive consumption of tuples, necessary for consumption of control flow tokens, and operations for non-destructive consumption of data tuples. Furthermore, tuplespaces can be associated with Uniform Resource Identifiers (URI) [14] for unique identification of tuplespaces. Using a naming service, a URI can be mapped to a Uniform Resource Locator (URL) [15] which reflects the physical address of the machine that provides the tuplespace. The location transparency provided by tuplespaces allows clients interacting over a tuplespace to use the same communication primitives no matter whether interactions involve a remote communication with clients e.g. residing on different machines or only local interactions with clients residing on the same physical machine. Moreover, the mechanism of associative addressing enables clients to describe both their starting conditions and data access using the same language and conceptual model. In addition associative addressing frees tuplespaces from being bound to any inherent ordering of data exchanged (c.f. FIFO- or priority-based ordering of messages in messageoriented middleware systems) which facilitates e.g. co-locating DATA and CF or DP tokens within 217 the same tuplespace without preventing themselves from being consumed. Finally, tuplespaces ensure synchronized access to the tuples that are contained in a tuplespace; effectively freeing clients from any direct client-to-client interaction. Given a system as described above, where process control flow and process instance data is communicated between process participants through remote-accessible tuplespaces, a wide spectrum of scenarios for decentralized process execution (i.e. decentralized evaluation of process control flow) can be supported using one and the same process navigation technique but different deployments of activity clients and tuplespaces; this is elaborated in the following. Abbildung 4: Centralized Process On one side of the spectrum, as presented in the scenario depicted in Figure 4, a process is deployed on one single WfMS and executed using the token-passing technique outlined above. Activity clients 1,…,5 are depicted as black filled circles. Tuplespaces are depicted as smaller, unfilled circles. In this scenario all tuplespaces used for communicating control flow tokens between activity clients reside on the same physical machine. Note that for the sake of clarity access to process instance data has been omitted from the scenario descriptions and each control flow link uses one single tuplespace for communicating the corresponding control flow tokens representing that link; under the assumption that the tokens (i.e. tuples) are self-contained in the sense that they provide all the information necessary to identify a particular control link within a certain instance of a certain process model, it is however possible collate multiple tuplespaces into one single tuplespace. Since in this deployment scenario all activity implementations and tuplespaces reside on the same machine, the tuplespace interface as defined above can be used efficiently using only local interactions. Abbildung 5: Fully decentralized process The other side of the spectrum of decentralized process execution supported by the proposed approach is depicted in Figure 5. Here the same process has been split into five fragments with each fragment containing one activity client and each of those being deployed on a different machine. In general, a process fragment refers to a part of the overall process, i.e. a subset of activities and process variables. The scenario furthermore presents two possible deployment scenarios for the tuplespaces used for communicating process control flow and instance data. The communication carried out between activity 1 and 3, for instance, is conducted over a tuplespace that is located in between the two activity clients and neither resides on the same machine as activity client 1 nor 218 activity client 3. The interaction between activities 1 and 2, in contrast, is conducted over a tuplespace that resides at the partner providing activity client 2, hence interactions initiated by 1 (e.g. writing of positive or negative control flow tokens) are remote interactions and interactions initiated by 2 (e.g. waiting for the availability of control flow tokens and their destructive consumption) are local interactions. Obviously, fully decentralized evaluation of process control flow as presented in Figure 5 introduces a huge amount of potentially unnecessary remote communication since each activity execution involves at least one remote interaction for the next navigation step (two in case of the tuplespace not residing on the side of either sender or receiver), so this is typically not desired. As presented in the motivating scenario (Section 2), it is often rather desired to combine multiple activity implementations into the same segment, based on the structure of the process model or the deployment of the orchestrated services. Abbildung 6: Process fragments (partially decentralized) The way how this can be achieved is presented in Figure 6. In this case, the process is split among two participants: Activity clients 1, 2, 5 are provided by the left process participant and activity clients 3 and 4 are provided by the right participant. Similar to the deployment scenario presented in Figure 4, communication and coordination among activities 1, 2, 5 and 3, 4 (i.e. the intrafragment communication) is achieved using local communication, while communication between 1, 3 and 4, 5 is carried out over through remote communication. Note that similar to the description in Section 3 the same tuplespace communication paradigm and primitives are used for (i) intrafragment communication to trigger execution of subsequent activity implementations within the same fragment and to facilitate fragment-local variable access and (ii) for inter-fragment communication to pass control flow to an activity or a set of activities located in an adjacent process fragment or facilitate remote access to process instance variables. As a summary, the spectrum of process distribution supported by the proposed method of decentralized execution of BPEL process control flow ranges from the most centralized scenario with all activity clients of a process residing on the same physical machine and both process control flow as well as process instance data tokens being exchanged over one tuplespace residing on the very same machine to processes where each activity client of a process and each tuplespace is provided on another physical machine. 3.1. Structure of Activity Clients As described above, the infrastructure that allows for execution of processes following the proposed approach for distributed execution of BPEL processes comprises two entities: activity clients and tuplespaces. In Figure 7, the logical view upon an implementation of an activity client is depicted. An activity client comprises coordination logic, which defines the conditions under which a particular activity implementation can be executed and the client’s computation logic that defines the actual application logic of the activity implementation. In tuplespace-based applications, the 219 coordination logic is generally provided by a template. A template allows defining constraints on the structure and values of a tuple through a mechanism known as query by example [16]. Abbildung 7: Logical View of activtiy implementations As part of the runtime infrastructure, a parameterizable implementation of each BPEL activity’s application logic is provided. In case of e.g. the BPEL assign activity, this comprises the consumption of the input variables, the application of the assign expression and the update of the value of the output variable. Activity clients are parameterizable through external configuration data in such a way, that the URIs of the tuplespaces containing inbound and outbound control flow tokens and data tuples and corresponding templates describing the tuples to be consumed can be defined. Since activity clients will typically be deployed on a number of different physical machines, remote configuration (i.e. parameterization) of activity clients must be supported. For facilitating efficient communication between activity clients deployed on one physical machine for intra-segment communication as well as remote communication between activity clients deployed on different machines for inter-segment communication, two communication protocols for the interaction between activity clients and the provided tuplespace are supported. 4. Related Work In [18], a motivation for distributed execution of workflows is presented and a description of the abstract components which form a distributed workflow application and their relations is presented. In addition, the authors provide an overview of existing distributed WfMS. In [19], the authors introduce a workflow management system architecture for supporting large-scale distributed applications, called Mentor, which is based on TP monitors and object request brokers. Decentralized workflow execution in Mentor is achieved by partitioning a workflow based on activity and state charts into a set of sub-workflows which are then enacted by a number of distributed workflow engines that are synchronized using Mentor; hence, in this approach, the minimal unit of fragmentation is a (sub-) process and not an individual activity as in the approach presented in this paper. In [20], AdeptDistribution, a similar approach to workflow partitioning and decentralized execution is presented that supports dynamic assignment of workflow partitions to so-called execution servers. Another approach to enacting workflows in a mobile, pervasive environment which relies on passing control flow between distributed BPEL engines is presented in [21]. However, no insight is given as to which extend this approach supports BPEL’s advanced features such as fault- and compensation-handling and dead path elimination. In [22], the distributed workflow engine OSIRIS is presented which is based on the concept of a hyperdatabase. The hyper-database is a distributed peer-to-peer database system that offers a number of global services with ACID transactional semantics and is realized by a hyper-database layer on each node participating in the process execution. A distributed publish-subscribe infrastructure is used for keeping data relevant for process instance execution on participating nodes in sync. In [7], an approach to fragmenting BPEL process for the purpose of business process outsourcing is presented which involves (i) a local BPEL workflow engine at each partner participating in the workflow execution and (ii) a centralized coordinator in between partners that is necessary for supporting certain BPEL constructs such as scopes and while loops split across multiple partners. A 220 BPEL process model is manually split by a user in a number of fragments and a corresponding BPEL process (along with necessary deployment information) is created for each fragment. Exchange of process instance data and passing control flow between fragments is realized by introducing additional invoke and receive activities in each process fragments, for sending (i.e. pushing) a message containing instance data to be passed to another fragment on one side and receiving potentially multiple messages containing instance data from different partners (through so-called receiving flows) on the other side. While this method retains standards-compliance by reusing existing Web service standards (e.g. WS-Coordination) it requires a centralized coordinator in cases where loops or scopes are split among partners. In addition, since process instance data is communicated between process participants through a push mechanism, complex data flow analysis is required on the sender’s side to determine the data that needs to be communicated. In [23], a cost model and algorithm for automatically splitting BPEL processes among a number of participating BPEL workflow engines is presented that is based on program dependence graphs. Similar work focused on more dynamic, mobile scenarios is presented in [24]. 5. Conclusions and Future Work In the paper we have presented an infrastructure and conceptual model for decentralized, distributed execution of business processes in BPEL that allows for arbitrarily distributed evaluation of process control flow. We have motivated the need for distributed evaluation of process control flow through an introductory example. The supported spectrum of process distributed has been discussed and the basic building blocks of the system architecture have been described. In contrast to existing models and techniques the approach as proposed in the paper allows for arbitrarily fragmented processes while using the same mechanisms (but different transport protocols) for evaluation of process control flow at the side of one process participant and between process participants. A tuplespace prototype that provides the necessary functionality for communicating process control flow between local activity clients has been implemented. While the broad spectrum of process fragmentation supported by the proposed system, allows for a wide range of optimizations depending on a user’s requirements, it requires the definition of an corresponding algorithm for automatic creation of those fragments. The definition of such an algorithm, based on process models, infrastructure descriptions and user requirements and the extension of the current prototype to support decentralized process deployment is considered future work. 6. References [1] KRAFZIG, D., BANKE, K., SLAMA, D.: Enterprise SOA. Service Oriented Architecture Best Practices. Prentice Hall International (December 2004) [2] WEERAWARANA, S., CURBERA, F., LEYMANN, F., STOREY, T., FERGUSON, D.F.: Web Services Platform Architecture: SOAP, WSDL, WS-Policy, WS-Addressing, WS-BPEL, WS-Reliable Messaging and More. Prentice Hall PTR Upper Saddle River, NJ, USA (2005) [3] ALONSO, G., CASATI, F., KUNO, H., MACHIRAJU, V.: Web Services: Concepts, Architectures and Applications. Springer Verlag (2004) [4] ARKIN, A., ET AL.: WS-BPEL: Web Services Business Process Execution Language Version 2.0. OASIS Open, January (2007) [5] LEYMANN, F.: Web Services: Distributed Applications without Limits, in: Business, Technology and Web, Leipzig (2003) [6] LEYMANN, F., ROLLER, D.: Production Workflow: Concepts and Techniques. Prentice Hall PTR Upper Saddle River, NJ, USA (1999) [7] KHALAF, R., LEYMANN, F.: Role-based Decomposition of Business Processes Using BPEL, in: International Conference of Web Services, ICWS 770–780 [8] WUTKE, D., MARTIN, D., LEYMANN, F.: Model and infrastructure for decentralized workflow enactment, in: 23rd ACM Symposium on Applied Computing (SAC2008) (2008) 221 [9] GELERNTER, D.: Generative Communication in Linda, in: ACM Transactions on Programming Languages and Systems 7(1) (1985) 80–112 [10] LEYMANN, F.: Space-based Computing and Semantics: A Web Service Purist’s Point-Of-View (2006) [11] FENSEL, D., EVA KÜHN, LEYMANN, F., TOLKSDORF, R.: Queues Are Spaces - Yet Still Both Are Not The Same? (2007), http://www.spacebasedcomputing.org/fileadmin/files/SBC-QueuesAreSpaces_20070511.pdf [12] MARTIN, D., WUTKE, D., SCHEIBLER, T., LEYMANN, F.: An EAI Pattern-based Comparison of Spaces and Messaging. In: EDOC ’07: Proceedings of the 11th IEEE International Enterprise Distributed Object Computing Conference, Washington, DC, USA, IEEE Computer Society (2007) 511 [13] BLAKELY, B., HARRIS, H., RHYS, L.: Messaging and Queueing Using the MQI: Concepts & Analysis, Design & Development. McGraw-Hill (1995) [14] BERNERS-LEE, T., FIELDING, R., MASINTER, L.: RFC 3986: Uniform Resource Identifier (URI): Generic Syntax. The Internet Society (2005) [15] BERNERS-LEE, T., MASINTER, L., MCCAHILL, M.: RFC 1738: Uniform Resource Locator (URL). The Internet Society (1994) [16] ZLOOF, M.: Query-by-Example: A Data Base Language, in: IBM Systems Journal 16(4) (1977) 324–343 [17] CLARK, J., DEROSE, S.: XML Path Language (XPath). W3C Recommendation (November 1999) [18] JABLONSKI, S., SCHAMBURGER, R., HAHN, C., HORN, S., LAY, R., NEEB, J., SCHLUNDT, M.: A comprehensive investigation of distribution in the context of workflow management, in: International Conference on Parallel and Distributed Systems ICPADS, Kyongju City, Korea (2001) [19] MUTH, P., WODTKE, D., WEISSENFELS, J., DITTRICH, A., WEIKUM, G.: From Centralized Workflow Specification to Distributed Workflow Execution, in: Journal of Intelligent Information Systems 10(2) (1998) 159–184 [20] BAUER, T., DADAM, P.: Efficient Distributed Workflow Management Based on Variable Server Assignments, in: International Conference on Advanced Information Systems Engineering (CAiSE’00), Stockholm (2000) 94–109 [21] MONTAGUT, F., MOLVA, R.: Enabling Pervasive Execution of Workflows, in: 1st IEEE International Conference on Collaborative Computing: Networking, Applications and Worksharing, CollaborateCom (2005) [22] SCHULER, C., WEBER, R., SCHULDT, H., SCHEK, H.J.: Scalable Peer-to-Peer Process Management - The OSIRIS Approach, in: IEEE International Conference on Web Services 2004 26–34 [23] NANDA, M.G., CHANDRA, S., SARKAR, V.: Decentralizing Execution of Composite Web Services, in: 19th Annual ACM SIGPLAN Conference on Object-Oriented Programming, Systems, Languages, and Applications (2004) 170–187 [24] BARESI, L., MAURINO, A., MODAFFERI, S.: Workflow Partitioning in Mobile Information Systems, in: IFIP TC8 Working Conference on Mobile Information Systems, Oslo, Norway (2004) 93–106 [25] MARTIN, D. , WUTKE, D., LEYMANN, F.: A Novel Approach to Decentralized Workflow Enactment. 12th IEEE International EDOC Conference, Munich, Germany (2008) 222 AUSWIRKUNGEN DER SERVICEORIENTIERUNG AUF DAS BUSINESS ENGINEERING: EINE METAMODELLBASIERTE ANALYSE Frank Höning1, Volker Bach1,2, Hubert Österle1 Kurzfassung Serviceorientierung ist ein weit verbreitetes Schlagwort. Auf Strategieebene sorgt sie für eine Differenzierung von den Wettbewerbern. Als Architekturparadigma für Informationssysteme ermöglicht sie eine höhere Wiederverwendbarkeit und flexiblere Integration von Geschäftsapplikationen. Beide Sichtweisen sind nicht isoliert zu betrachten, da viele von Geschäftsapplikationen bereitgestellte Services das Potenzial haben, zum Differenzierungsmerkmal in Beziehungen zu den Geschäftspartnern zu werden. Der Beitrag analysiert, in welchen Teilen bewährte Methoden des Business Engineering eine serviceorientierte Ausrichtung auf strategischer und systemtechnischer Ebene bereits unterstützen und wo Erweiterungen erforderlich sind. Dazu grenzt er die kontextspezifischen Begriffsinhalte der Serviceorientierung ab und definiert ein daran angepasstes Metamodell einer Business Engineering Methode. 1. Einleitung Unternehmen des Informationszeitalters richten ihr Produkt- und Serviceportfolio am Kundenprozess aus. Dabei stellen insbesondere die Serviceleistungen entlang des Geschäftsbeziehungszyklus ein Differenzierungsmerkmal im Wettbewerb dar [1]. Diese sind die Antwort der Unternehmen auf die sich ständig ändernden Kundenbedürfnisse in hart umkämpften und gesättigten Märkten [2]. Aus der Notwendigkeit, das Geschäftsmodell permanent den Marktveränderungen anzupassen, resultieren hohe Anforderungen an die Wandlungsfähigkeit der Informationssysteme. Serviceorientierte Architekturen (SOA) sollen dies ermöglichen und die schnellere und wirtschaftlichere Umsetzung von Innovationen des Geschäftsmodells im Informationssystem sicherstellen [3]. Die serviceorientierte Ausrichtung eines Unternehmens ist aus sozio-ökonomischen und technischen Gesichtspunkten zu komplex, als dass sie ohne methodische Unterstützung bestritten werden könnte. Zur Transformation von Unternehmen verfügt die Wirtschaftsinformatik über bewährte und sehr umfangreiche Methoden wie das Semantische Objektmodell (SOM) von Ferstl & Sinz [4], die Multiper- 1 2 Universität St. Gallen, CH-9000 St. Gallen, Müller-Friedberg-Strasse 8. SAP AG, D-61690 Walldorf, Dietmar-Hopp-Allee 16. 223 spektivische Unternehmensmodellierung (MEMO) nach Frank [5], die Architektur integrierter Informationssysteme (ARIS) von Scheer [6] und den St. Galler Ansatz des Business Engineering (BE) nach Österle [7]. Daneben existieren konsolidierte Methoden wie etwa die „Core Business Engineering“(CBE)-Methode [8]. Diese ist durch eine Kombination aus Aktions- und Fallstudienforschung sowie Deduktion entwickelt worden und bildet die Schnittmenge aus einer Reihe von Spezialmethoden. Sie liefert ein methodisches Grundgerüst, welches in jedem Transformationsprojekt über die Gestaltungsebenen Strategie, Prozesse und Systeme anwendbar ist. Eine derartige schlanke Methode für die Unternehmenstransformation reduziert die Einarbeitungszeit des Methodenanwenders und erhöht die Anwendungswahrscheinlichkeit der Methode. Doch deckt dieser Methodenkern eine serviceorientierte Neuausrichtung eines Unternehmens bereits ausreichend ab oder bedarf es dafür einer (ebenfalls schlanken) Erweiterung? Hierauf eine Antwort zu geben, ist Ziel des Beitrags. Der zugrunde liegende Forschungsprozess orientiert sich an den Prinzipien des Design Science Research [9]. Dieses Paradigma strebt nach Erkenntnisgewinn durch Schaffen (Develop/Build) und Evaluieren (Justify/Evaluate) von IT-Lösungen in Form von Modellen, Methoden oder Systemen. Der vorliegende Beitrag konzentriert sich auf die Phase des Schaffens und erweitert eine bestehende BEMethode um Aspekte der Serviceorientierung auf strategischer und systemtechnischer Ebene. Dementsprechend stellt Abschnitt 2 die CBE-Methode und die ihr zugrunde liegenden Prinzipien der Methodenkonstruktion vor. Der Fokus liegt auf dem Core Business Metamodell (CBM), welches den Ordnungsrahmen für eine mögliche Erweiterung darstellt. Voraussetzung für die Einordnung der Serviceorientierung in die Begriffswelt des BE ist die präzise Abgrenzung der Begriffsinhalte auf strategischer und systemtechnischer Ebene. Dazu dient die Analyse zahlreicher Definitionen aus der Literatur (Punkt 3). Ausgehend von einem konsolidierten Verständnis der Serviceorientierung überprüft Punkt 4 den methodischen Abdeckungsgrad einer serviceorientierten Ausrichtung durch die CBE-Methode. Eine Zusammenfassung und ausblickende Bemerkungen schliessen den Beitrag (Punkt 5). Die Evaluation und Weiterentwicklung des in diesem Beitrag vorgeschlagenen Artefakts zur methodischen Unterstützung einer serviceorientierten Ausrichtung ist in zukünftigen Arbeiten vorzunehmen. 2. „Core Business Engineering“-Methode Business Engineering (BE) bezeichnet „die methoden- und modellbasierte Konstruktionslehre für Unternehmen des Informationszeitalters“ auf unterschiedlichen Ebenen (Strategie, Prozesse, Systeme) [10]. Ziel des BE ist es, „innovative Geschäftslösungen so professionell wie Flugzeuge oder Fertigungsanlagen zu entwickeln“ [11]. Unterstützung beim Transformationsprozess bieten die eingangs erwähnten bewährten Methoden des BE. Neben diesen Methoden hat auch jedes Beratungshaus seine eigene Projektmethodik entwickelt und schliesslich existieren in grösseren Unternehmen Projekthandbücher, die den Transformationsprozess systematisieren sollen. Dies verdeutlicht, dass sich die ursprüngliche Idee einer Standardisierung von Projektmethoden nicht nachhaltig durchgesetzt hat. Vielmehr wird in der betrieblichen Praxis eine Kombination aus verschiedenen Methodiken eingesetzt [12]. Inkompatible Methodenbaukästen erfordern jedoch eine hohe Einarbeitungszeit der Projektbeteiligten, setzen eine gute Methodenkenntnis voraus und führen nicht selten zu unangemessen hohen Dokumentationsaufwänden. Ein realistischer Weg zur methodischen Arbeit in einer grösseren Zahl von Transformationsprojekten ist daher in der Definition einer auf das Wesentliche reduzierten CBE-Methode zu sehen [8]. 224 2.1. Methoden-Struktur Grundlage für die Konstruktion der CBE-Methode bildet das Methoden-Engineering, also der ingenieurwissenschaftliche Prozess des Entwurfs und der Anpassung von Methoden, Techniken und Werkzeugen für die Entwicklung von Informationssystemen [13]. Dem Methoden-Engineering entsprechend, besteht die CBE-Methode aus den Komponenten Metamodell, Vorgehensmodell, Ergebnisdokumenten, Techniken und Rollen [14]: Das Vorgehensmodell strukturiert die Aktivitäten eines Transformationsvorhabens in einer zeitlichen und sachlogischen Reihenfolge. Rollen bündeln die Menge an Aktivitäten aus Sicht eines Aufgabenträgers. Ergebnisdokumente halten den Gestaltungsentwurf fest. Aktivitäten verwenden Ergebnisse vorangehender Aktivitäten als Input und erzeugen oder verändern ihrerseits Ergebnisse. In den einzelnen Ergebnisdokumenten werden die Gestaltungsobjekte der Methode anhand ihrer Attribute beschrieben. Das Metamodell ist das konzeptionelle Datenmodell der Ergebnisse. Es bringt den Aspekt der Ergebnisorientierung einer Methode zum Ausdruck [15] und bildet das Fundament der Methodenentwicklung. Es definiert die Konstruktionsregeln für den Entwurf von Modellsystemen, indem es die verfügbaren Arten von Gestaltungsobjekten, die Arten von Beziehungen zwischen den Objekten, die Regeln für die Verknüpfung von Objekten sowie deren Semantik spezifiziert [16]. Techniken liefern detaillierte Handlungsanweisungen im Rahmen eines methodischen Vorgehens. Sie dienen als Anleitung zur Erstellung der Ergebnisse. Situative Überlegungen, wie sie der Contingency Approach fordert, fanden bei der Methodenentwicklung keine Berücksichtigung. Diese verlangen eine Adaption der Methoden je nach Projekt, Problemstellung und Umweltparameter [17]. Da es sich aber bei der CBE-Methode um ein methodisches Grundgerüst für alle Projekttypen handelt, wurden diese Aspekte nicht betrachtet. 2.2. Metamodell Das Metamodell der CBE-Methode, das CBM, ist das Ergebnis einer Analyse mehrerer Methoden und Fallstudien. Um einfach und überschaubar zu bleiben, enthält es lediglich diejenigen Objekte, die typischerweise in BE-Projekten analysiert, entworfen und dokumentiert werden. Abbildung 1 zeigt das als UML-Klassendiagramm dokumentierte Metamodell. Es beinhaltet Gestaltungsobjekte (UML-Klassen) sowie die Beziehungen (UML-Beziehungstypen Generalisierung, Aggregation und Assoziation) zwischen diesen [18]. Bestandteil des ursprünglichen CBM sind die nicht fett umrandeten Gestaltungsobjekte: Im Mittelpunkt der Betrachtungen steht ein Unternehmen, welches als spezielles Element einer Organisation modelliert ist und im Markt agiert (Sicht Strategie). Die Tätigkeiten der Marktbearbeitung werden in einem oder mehreren Geschäftsfeldern konkretisiert. Geschäftsfelder lassen sich durch die adressierten Kundensegmente, den geographischen Standort der Kunden, die Marktleistungen der Unternehmung, mit Hilfe derer die Kundenbedürfnisse befriedigt werden, sowie durch die Kooperationskanäle zum Informations- und Warenaustausch definieren. Der Kooperationskanal ist zwingende Voraussetzung für eine Geschäftsbeziehung mit den Geschäftspartnern. Eine Geschäftsbeziehung konkretisiert die Interaktion zwischen Organisationen. Innerhalb dieser nehmen die Geschäftspartner bestimmte Rollen (Geschäftspartnerrolle) ein, wie etwa Kunde, Lieferant oder Mitbewerber. Der Bereich Führung / Zielsystem steuert die Aufbau- und Ablauforganisation. Dazu werden Ziele festgelegt, die sich hierarchisch verfeinern lassen. Zur Operationalisierung der Ziele müssen Erfolgsfaktoren bestimmt und daraus Kennzahlen / Führungsgrössen mit definiertem Zielwert zur Messung der Zielerreichung abgeleitet werden. Durch den Vergleich der so ermittelten Ist-Werte mit den definierten 225 Zielen (Soll-Werte) können geeignete Massnahmen abgeleitet werden, um die Erreichung der übergeordneten strategischen Unternehmensziele sicherzustellen. Abbildung 1: Core Business Metamodell und seine Erweiterung 226 Im Mittelpunkt der Ablauforganisation stehen die Geschäftsprozesse mit ihren Aufgaben. Geschäftsprozesse dienen der Erzeugung von (Prozess-)Leistungen, die als Input in weitere Geschäftsprozesse eingehen oder als Teil von Marktleistungen eine Verwertung im Markt erfahren. Bei der Leistungserstellung führen Aufgaben an den Geschäfts-(informations-)objekten Aktivitäten durch. Um die Geschäftsprozesse ausführen zu können, sind die Mitarbeiter den Stellen als kleinste Organisationseinheit zuzuordnen sowie die zur Aufgabenerfüllung benötigten Rollen zu definieren (Sicht Aufbauorganisation). Die Basis innovativer Geschäftsmodelle ist ein Informationssystem, welches aus den zwei Teilbereichen Applikationen sowie Informationstechnik-Komponenten besteht. Erstere beschreiben die Anwendungssoftware zur Unterstützung der Geschäftsprozesse. Moderne Anwendungssysteme bestehen im Regelfall aus den drei Schichten Benutzerschnittstelle, Applikationsfunktionen bzw. GeschäftslogikKomponenten und Datenbehälter bzw. Datenhaltungskomponenten [19]. Die einzelnen Applikationen benötigen Informationstechnik-Komponenten als Betriebsinfrastruktur. Hierzu zählen Applikationsplattform(-Komponenten), Hardware- und Netzwerkkomponenten. 3. Serviceorientierung im Kontext von Geschäftsstrategie und Informationssystem Wie bereits eingangs verdeutlicht, wird der Begriff der Serviceorientierung in mehreren Kontexten der betriebswirtschaftlichen Forschung und Praxis genutzt, jedoch jeweils mit einem eigenen Begriffsverständnis. Insbesondere in Transformationsprojekten, die eine Durchgängigkeit von der Geschäftsstrategie bis zum Informationssystem erfordern, sind klarere Begriffsabgrenzungen notwendig, um eine reibungslose Kommunikation über mehrere Kontexte hinweg sicherzustellen. Hierzu führt Tabelle 1 eine Reihe von Definitionen im Kontext von (Geschäfts-)Strategie und (Informations-)System an. Die auf Strategieebene überwiegenden deutschen Definitionen verwenden oft den Begriff „Dienstleistung“ statt „Service“. Während hier wissenschaftliche Quellen dominieren, werden auf Systemebene zusätzlich Standardisierungsgremien, Analysten und Anbieter von serviceorientierter Unternehmenssoftware einbezogen. Tabelle 1: Definitionen der Begriffe Dienstleistung / Service und SOA Definitionen im Kontext „Geschäftsstrategie“ Bei Dienstleistungen handelt es sich entweder um eine körperliche oder geistige Tätigkeit, durch die im wirtschaftlichen Sinne ein Bedürfnis befriedigt wird, ohne dass dabei ein Sachgut hergestellt wird [20]. Dienstleistungen sind immaterielle Leistungen, die ein Anbieter einem Nachfrager gewähren kann, und die keine Übertragung von Eigentum an irgendeiner Sache zur Folge hat. Die Erstellung einer Dienstleistung kann mit einem realen materiellen Produkt verbunden sein oder nicht [21]. Die Dienstleistung ist ein Realgut mit immateriellem Charakter. Der Dienstleistungsanbieter erzeugt durch die Kombination interner Potenzialfaktoren eine Leistungsbereitschaft. Der Dienstleistungsnachfrager bringt sich selbst (als Person) oder sein Objekt in den Dienstleistungsprozess ein, in dem der externe Faktor mit der Leistungsbereitschaft (Leistungspotenz) kombiniert wird. Es entsteht die Dienstleistung als immaterielles Gut [22]. Dienstleistungen sind Leistungen im Zusammenhang mit der Bereitstellung oder dem Einsatz von Potenzialfaktoren. Diese werden während der Erstellung der Dienstleistung miteinander kombiniert. Ziel ist es, an externen Faktoren, nämlich dem Kunden oder seinem Objekt, eine nutzenstiftende Wirkung zu erzielen. Dienstleistungen können dabei selbstständig sein oder eine produktbegleitende Leistung [23]. 227 Definitionen im Kontext „Geschäftsstrategie“ (Forts.) Dienstleistungen sind selbstständige, marktfähige Leistungen, die mit der Bereitstellung und/oder dem Einsatz von Leistungsfähigkeiten verbunden sind (Potenzialorientierung). Interne und externe Faktoren werden im Rahmen des Leistungserstellungsprozesses kombiniert (Prozessorientierung). Die Faktorkombination des Dienstleistungsanbieters wird mit dem Ziel eingesetzt, an den externen Faktoren – Menschen oder deren Objekte – nutzenstiftende Wirkungen zu erzielen (Ergebnisorientierung) [24]. Definitionen im Kontext „Informationssystem“ [SOA:] The policies, practices, frameworks that enable application functionality to be provided and consumed as sets of services published at a granularity relevant to the service consumer. Services can be invoked, published and discovered, and are abstracted away from the implementation using a single, standards-based form of interface [25]. A SOA is an enterprise-scale IT architecture for linking resources on demand. In a SOA, resources are made available to participants in a value net, enterprise, line of business (typically spanning multiple applications within an enterprise or across multiple enterprises). It consists of a set of business-aligned IT services that collectively fulfill an organization’s business processes and goals. A service is a software resource (discoverable) with an externalized service description. This service description is available for searching, binding, and invocation by a service consumer. The service provider realizes the service description implementation and also delivers the quality of service requirements to the service consumer [26]. Service-Oriented Architecture (SOA) refers to an application software topology according to which business logic of the applications is separated from its user interaction logic and encapsulated in one or multiple software components (services), exposed to programmatic access via well defined formal interfaces. Each service provides its functionality to the rest of the system as a well-defined interface described in a formal markup language and the communication between services is platform and language independent [27]. Domains provide their data and functionality by stable defined interfaces, called “services”. As the main concept of SOA, a service encapsulates in our understanding a defined unit of business logic, which is reusable. It hides its implementation and can be invoked by a service consumer. Semantics, syntax and quality of service – on basis of the business logic they represent – are the main elements that describe a service [28]. SOA is a software architecture that starts with an interface definition and builds the entire application topology as a topology of interfaces, interface implementations and interface calls. […] SOA is a relationship of services and service consumers, both software modules large enough to represent a complete business function. Services are software modules that are accessed by name via an interface, typically in a requestreply mode [29]. Enterprise services are a standards-based way of encapsulating enterprise functionality and exposing it as a reusable business service that can be combined with other services to meet new requirements. Enterprise services, defined by SAP and its partners and customers, can be assembled together to compose new applications or enable new business processes. Enterprise services are implemented as web services, meaning that their interfaces are defined using WSDL files and that they support other commonly used standards for web services [30]. Aus den Definitionen in Tabelle 1 ergibt sich folgendes konsolidierte Begriffsverständnis: Im Kontext der Geschäftsstrategie handelt es sich bei einem Service / einer Dienstleistung um eine immaterielle Leistung – im Gegensatz zu einem Produkt als materieller Leistung. Eine Dienstleistung kann mit einem Produkt verbunden sein, ist jedoch auch selbstständig vermarktbar. Sie besteht aus einer oder mehreren immateriellen Leistungsbestandteilen (Potenzialfaktoren). Ziel einer Dienstleistung ist es, die Anforderungen der Kunden entlang des Geschäftsbeziehungszyklus komplett zu befriedigen. Im Kontext des Informationssystems sind Services nach bestimmten Regeln gestaltete Komponenten einer serviceorientierten Architektur (SOA). Dabei handelt es sich um abstrakte Softwareelemente, welche die in den Applikationen vorhandenen Daten und Funktionen nach den Anforderungen systemübergreifender Prozesse strukturieren und kapseln. Servicespezifikationen sorgen für die technische 228 und fachliche Dokumentation der durch den Service gekapselten Leistung. Diese sollten eine möglichst vollständige, widerspruchsfreie und eindeutige Beschreibung der Aussensicht eines Services für die Servicebenutzer geben. Die Servicespezifikationen werden in einem Serviceverzeichnis veröffentlicht („published“), in welchem potenzielle Servicenutzer manuell oder automatisiert nach Diensten suchen können. Bei der fachlichen Gruppierung der zusammengehörigen Daten und Funktionen und deren Kapselung nach aussen helfen Applikationsdomänen. Zwischen den Dienstleistungen auf Strategie- und den Services auf Systemebene lassen sich somit einige Gemeinsamkeiten feststellen. Beide bestehen aus einer oder mehreren Komponenten (Potenzialfaktoren, Daten, Funktionen) und offerieren eine immaterielle Leistung. Ziel ist die Erfüllung der Anforderungen der Leistungsempfänger, bei denen es sich entweder um Prozesse von Kunden, Mitbewerbern und Lieferanten oder um systemübergreifende (interne) Prozesse handelt. Anhand der erarbeiteten Begriffsverständnisse wird im Folgenden der methodische Abdeckungsgrad einer Serviceorientierung durch die CBE-Methode überprüft. Als Ordnungsrahmen für die Analyse dient das CBM, das sich nicht nur für die Einordnung der Begriffsinhalte in das Vokabular einer Unternehmenstransformation, sondern auch für eine strukturierte Analyse des methodischen Abdeckungsgrades eignet. 4. Serviceorientierung im Core Business Metamodell Anhand der erarbeiteten Begriffsverständnisse werden die im CBM modellierten Entitätstypen und deren Beziehungen zueinander analysiert und darauf geprüft, ob sich durch diese eine Serviceorientierung abbilden lässt. Reichen die vorhandenen Entitätstypen und Beziehungen nicht aus, sind Erweiterungen am CBM vorzunehmen. Die CBE-Methode definiert dazu Erweiterungsregeln (s. Tabelle 2), welche die syntaktische Konsistenz der Erweiterungen sicherstellen [8]. Tabelle 2: Erweiterungsregeln Nr. 1 2 3 4 5 6 7 8 Bezeichnung Hinzufügen eines Gestaltungsobjekts Hinzufügen einer Assoziationsbeziehung Spezialisierung eines Gestaltungsobjekts (durch eine Generalisierungs-Beziehung) Beschreibung der Detailstruktur eines Gestaltungsobjekts (durch Aggregationsbeziehungen zu neuen Detail-Gestaltungsobjekten) Beschreibung der Detailstruktur einer Assoziations- oder Aggregationsbeziehung (durch Hinzufügen von Gestaltungsobjekten oder Assoziationsklassen) Hinzufügen eines Aggregationsobjekts Verschiebung von Assoziationsbeziehungen auf eine niedrigere Aggregationsebene Verschiebung von Assoziationsbeziehungen auf eine höhere Aggregationsebene Wie bereits festgestellt wurde, handelt es sich bei Services im Kontext der Geschäftsstrategie um Leistungen, die durch die Kombination von Potenzialfaktoren entstehen und lose oder gekoppelt mit dem materiellen Produkt zur Unterstützung der Aufgaben des Kundenprozesses angeboten werden. Materielle Leistungen für den Kunden sind im CBM als Marktleistung beschrieben. Marktleistungen setzen sich aus Vor- bzw. Teilleistungen zusammen und werden über den Kooperationskanal mit den Geschäftspartnern (Kunde, Mitbewerber, Lieferant) ausgetauscht. Dieses Begriffsverständnis lässt sich auch auf immaterielle Leistungen – im Sinne von Dienstleistungen bzw. Services – übertragen und ist nicht auf die Erstellung einer Sachleistung beschränkt. Somit lassen sich mit dem Begriff der Marktleistung sowohl Sach- als auch Dienstleistungen zur Befriedigung der Kundenbedürfnisse abbilden. 229 Um dem vorliegenden Kontext einer materiellen und immateriellen Wertschöpfung mehr Ausdruck zu verleihen, werden die beiden Termini als Spezialisierung einer Marktleistung modelliert (Regel 3). Abbildung 1 zeigt die Erweiterung des Metamodells (fett umrandet dargestellt). Im Kontext des Informationssystems umfasst das CBM die Applikationen zur Geschäftsprozessunterstützung, welche aus den drei logischen Schichten Applikationsfunktion, Benutzerschnittstelle und Datenbehälter bestehen. Applikationen können über Schnittstellen miteinander verbunden sein. Um dem serviceorientierten Entwurfsparadigma im Kontext des Informationssystems gerecht zu werden, wird das CBM gemäss der Begriffsdefinition aus Abschnitt 3 erweitert. In einem ersten Schritt werden die neu benötigten Gestaltungsobjekte identifiziert. Gemäss der Begriffsdefinition handelt es sich um die Architekturkomponenten Service, Servicespezifikation, Applikationsdomäne und Serviceverzeichnis (Regel 1). In einem nächsten Schritt sind die identifizierten Gestaltungsobjekte in das CBM einzubinden. Als Strukturierungshilfe, welche Integrationsbeziehungen zwischen Applikationen als Services auszuprägen sind und welche nicht, dienen Applikationsdomänen [28]. Diese gruppieren fachlich zusammengehörige Applikationen bzw. Funktionen und Daten aus logischer Sicht und werden deshalb als Aggregationsobjekt (Regel 6) in das CBM aufgenommen. Die Beschreibung der durch den Service angebotenen Leistung erfolgt durch die Servicespezifikation. Wie bereits erwähnt, besteht diese aus einer fachlichen und einer technischen Beschreibung (Regel 4). Die fachliche Servicespezifikation beschreibt einen Service auf verschiedenen Ebenen. Hierzu zählen die Verhaltensebene (Vor- / Nachbedingungen etc.), die Abstimmungsebene (Dialogsequenzen, Synchronisationserfordernisse etc.), die Aufgabenebene (Beschreibung in geschäftlicher Terminologie), die Qualitätsebene (Sicherheitskontext, Durchsatz etc.) und die Vermarktungsebene (Domäne, Nutzungskonditionen etc.) [3]. Daneben umfasst die Servicespezifikation auch einen technischen Teil, die Beschreibung der Schnittstellen. Darunter ist ein Schnittstellenkontrakt zu verstehen, der funktionale und technische Eigenschaften des Services dokumentiert. Er enthält Angaben zu den Serviceoperationen, Ein- und Ausgabedatenstrukturen, unterstützten Netzwerkprotokollen, verwendeten Nachrichtenformaten sowie zur Service-Adresse [3]. Auf diese Weise entsteht eine Schnittstellenschicht, die Kommunikationsstandards wie etwa HTTP, XML, SOAP und WSDL verwendet [26]. Implementiert werden technische Serviceschnittstellen durch Applikations-(Software-)Komponenten, was durch eine Assoziationsbeziehungen zwischen den beiden Entitätstypen zum Ausdruck kommt (Regel 2). Als Nachschlagewerk für die Servicenutzer dient das Serviceverzeichnis, in welchem die Serviceanbieter ihre Servicespezifikationen veröffentlichen. Als zentrales Inhaltsverzeichnis der Servicespezifikationen wird es als Aggregationsobjekt in das CBM eingebunden (Regel 6). Services erbringen durch die Kapselung von Daten und Funktionen bestimmte Leistungen für den Servicenutzer. Aus Sicht des Nutzers unterstützt ein Service eine oder mehrere Aktivitäten eines Geschäftsprozesses. Dies bildet die Assoziationsbeziehung „nutzt“ zwischen den Gestaltungsobjekten Aktivität und Service ab (Regel 2). Aus Anbietersicht ist ein Service das Ergebnis eines – im Normalfall automatisch ablaufenden – Prozesses, sei es ein komplexer Service, der bspw. vom Prozess „Gehaltsabrechnung“ erstellt wird, oder ein elementarer Service des Prozesses „Bereitstellung Kundendaten“. Somit stellt das Gestaltungsobjekt Service eine Spezialisierung der Prozessleistung dar (Regel 3). Da sich Marktleistungen zur Befriedigung der Kundenbedürfnisse bzw. des Kundenprozesses aus einer oder mehreren Prozessleistungen zusammensetzen, kann ein Service als Teil einer Marktleistung angesehen werden, sofern der Leistungsempfänger ein Prozess ausserhalb des Unternehmens ist. Als Kooperationskanal kann dabei bspw. ein Portal dienen. Es bündelt unternehmensinterne und externe Leistungen für spezifische Prozesse bestimmter Benutzerrollen (z. B. Kunden, Lieferanten, Mitarbeiter) [31]. Dabei greifen Portale auf Services zu, die Leistungen zur Unterstützung des Kundenprozesses er- 230 bringen. Auf diese Weise kommt einem zunächst auf Systemebene angesiedelten Service schliesslich auch eine strategische Bedeutung im Sinne einer Dienstleistung zu. 5. Zusammenfassung und Ausblick Unternehmen des Informationszeitalters richten ihr Produkt-Service-Portfolio am Kundenprozess aus, wobei insbesondere die Dienstleistungen Wettbewerbsvorteile generieren. Die permanente Neuausrichtung des Geschäftsmodells erfordert eine schnelle Wandelbarkeit der Informationssysteme. Das SOAParadigma bietet hierzu einen vielversprechenden Ansatz. Für die systematische Unternehmenstransformation existiert eine Reihe von Methoden. Inwieweit diese Methoden eine Serviceorientierung auf strategischer und systemtechnischer Ebene unterstützen, untersuchte der vorliegende Beitrag exemplarisch an der „Core Business Engineering“-Methode. Voraussetzung für diese Analyse war eine präzise Klärung der Begriffsinhalte. Basierend auf dem erarbeiteten Begriffsverständnis zeigte sich, dass im Kontext der Geschäftsstrategie die Dichotomie von Produkt und Dienstleistung mit dem Gestaltungsobjekt Marktleistung aufgehoben wird. Im Kontext des Informationssystems wurde deutlich, dass die bisherige Sicht für die Abbildung einer serviceorientierten Integration nicht ausreicht. Die Folge war die konsistente Erweiterung des CBM um die Gestaltungsobjekte Applikationsdomäne, Service, Servicespezifikation und technische Serviceschnittstelle. Nach diesem Beitrag zur Einordnung der Serviceorientierung in das Vokabular des BE können zukünftige Forschungsarbeiten auf dieser metamodellbasierten Einordnung aufbauen und die anderen konstituierenden Merkmale einer Methode anpassen. Denn nur, wenn die Serviceorientierung in allen Methodenkomponenten Eingang gefunden hat, lassen sich die in diesem Beitrag fokussierten Transformationsprojekte systematisch angehen. Bei der Adaption der weiteren Methodenelemente sind folgende Überlegungen zu beachten: • Aktivitäten und Rollen: Serviceorientierung erfordert die kontinuierlichen Weiterentwicklung und Verbesserung der Services [32]. Diese Anforderung kann nicht mehr nur im Rahmen des zeitlich befristeten Transformationsprojektes erfüllt werden. Daher sind Aktivitäten und Rollen aus der Projekt-Methode zu desintegrieren und in der permanenten Organisation zu institutionalisieren. Im strategischen Kontext können dies Entwicklungsprozesse für Dienstleistungen sein [33], im System-Kontext SOA-Governance-Prozesse [34]. • Techniken und Ergebnisdokumente: Für die Erstellung der Dienstleistungen bzw. Services müssen konkrete Handlungs- und Modellierungshilfen entwickelt werden. Auf Strategieebene zählen hierzu bspw. Markt- und Kundenanalysen oder Anleitungen zur Festlegung der Verrechnungsstrategie [33]. Auf Systemebene sind insbesondere die mit dem SOA-Paradigma verbundenen Designprinzipien – wie etwa Schnittstellenorientierung, Interoperabilität, Autonomie / Modularität sowie Bedarfsorientierung [3] – zu beachten. Sämtliche Anpassungen und Erweiterungen werden dabei das wesentliche Charakteristikum des vorgestellten Metamodells reflektieren müssen: Die Durchgängigkeit vom elementaren Service, der eine einzelne Aktivität eines Geschäftsprozesses unterstützt, über den eine Prozessleistung darstellenden (und aus anderen Services zusammengesetzten) Service bis hin zu dessen Vermarktung im strategischen Kontext (im Sinne einer elektronischen Dienstleistung). Literaturverzeichnis [1] Sawhney, M., Balasubramanian, S., Krishnan, V., Creating Growth with Services, in: MIT Sloan Management Review, 45, 2004, Nr. 2, S. 34-43. 231 [2] Schäppi, B., Andreasen, M. M., Kirchgeorg, M., Radermacher , F.-J., Handbuch Produktentwicklung, Hanser, München 2005. [3] Heutschi, R., Serviceorientierte Architektur - Architekturmodell und Umsetzung in der Praxis, Dissertation, Universität St. Gallen, Difo, Bamberg 2007. [4] Ferstl, O. K., Sinz, E. J., Der Ansatz des Semantischen Objektmodells (SOM) zur Modellierung von Geschäftsprozessen, in: Wirtschaftsinformatik, 37, 1995, Nr. 3, S. 209-220. [5] Frank, U., Multiperspektivische Unternehmensmodellierung: Theoretischer Hintergrund und Entwurf einer objektorientierten Entwicklungsumgebung, Oldenbourg, München 1994. [6] Scheer, A.-W., ARIS - Vom Geschäftsprozess zum Anwendungssystem, 3. Aufl., Springer, Berlin 1998. [7] Österle, H., Business Engineering: Prozess- und Systementwicklung, 2. Aufl., Springer, Berlin 1995. [8] Höning, F., Core Business Engineering, Dissertation (in Arbeit), Universität St. Gallen, St. Gallen 2008. [9] Hevner, A. R., March, S. T., Park, J., Ram, S., Design Science in Information Systems Research, in: MIS Quarterly, 28, 2004, Nr. 1, S. 75-105. [10] Österle, H., Winter, R., Business Engineering, in: Österle, H., Winter, R. (Hrsg.), Business Engineering - Auf dem Weg zum Unternehmen des Informationszeitalters, 2. Aufl., Springer, Berlin 2003, S. 4-20. [11] Österle, H., Blessing, D., Ansätze des Business Engineering, in: HMD, 42, 2005, Nr. 241, S. 7-17. [12] Hess, T., Schuller, D., Business Process Reengineering als nachhaltiger Trend? Eine Analyse der Praxis in deutschen Großunternehmen nach einer Dekade, in: Schmalenbachs Zeitschrift für betriebswirtschaftliche Forschung (zfbf), 57, 2005, Nr. 5, S. 355-373. [13] Brinkkemper, S., Method Engineering - Engineering of Information Systems Development Methods and Tools, in: Information and Software Technology, 38, 1996, Nr. 4, S. 275-280. [14] Gutzwiller, T., Das CC RIM-Referenzmodell für den Entwurf von betrieblichen, transaktionsorientierten Informationssystemen, Physica, Heidelberg 1994. [15] Kettinger, W. J., Teng, J. T. C., Guha, S., Business Process Change: A Study of Methodologies, Techniques, and Tools, in: MIS Quarterly, 21, 1997, Nr. 1, S. 55-80. [16] Ferstl, O. K., Sinz, E. J., Grundlagen der Wirtschaftsinformatik, 4. Aufl., Oldenbourg, München 2001. [17] Bucher, T., Klesse, M., Kurpjuweit, S., Winter, R., Situational Method Engineering - On the Differentiation of "Context" and "Project Type", IFIP WG8.1 Working Conference on Situational Method Engineering - Fundamentals and Experiences (ME07), Geneva, Springer, 244, 2007, S. 33-48. [18] Oestereich, B., Objektorientierte Softwareentwicklung - Analyse und Design mit der Unified Modeling Language, 5. Aufl., Oldenbourg, München 2001. [19] Alonso, G., Casati, F., Kuno, H., Machiraju, V., Web Services: Concepts, Architectures and Applications, Springer, Berlin 2003. [20] Koschnick, W. J., Enzyklopädisches Wörterbuch Marketing Band 1 Teil 2, Saur, München 1994. [21] Kotler, P., Armstrong, G., Saunders, J., Wong, V., Grundlagen des Marketing, 4. Aufl., Pearson, München 2007. [22] Nebl, T., Produktionswirtschaft, 6. Aufl., Oldenbourg, München 2007. [23] Ramme, I., Betriebswirtschaft der Dienstleistungen - Handbuch für Studium und Praxis, in: Pepels, W. (Hrsg.), nwb, Herne 2002, S. 3-22. [24] Bruhn, M., Qualitätsmanagement für Dienstleistungen: Grundlagen, Konzepte, Methoden, Springer, Berlin 2006. [25] Sprott, D., Wilkes, L., Understanding SOA, in: CBDi Journal, 2003, September, S. 4-14. [26] W3C, Web Services Description Working Group, http://www.w3.org/2002/ws/desc/, 10.07.2008. [27] Gioldasis, N., Moumoutzis, N., Kazasis, F., Pappas, N., Christodoulakis, S., A Service Oriented Architecture for Managing Operational Strategies, ICWS-Europe 2003, LNCS 2853, Springer, 2003, S. 11-23. [28] Herr, M., Bath, U., Koschel, A., Implementation of a Service Oriented Architecture at Deutsche Post MAIL, European Conference on Web Services, Erfurt, 2004, S. 227-238. [29] Natis, Y., Service-Oriented Architecture Scenario, Gartner, Inc., Stamford 2003. [30] SAP AG, Enterprise Service, https://www.sdn.sap.com/irj/sdn/wiki?path=/display/ESpackages/Process%2bComponents, 24.07.2008. [31] Puschmann, T., Prozessportale - Architektur zur Vernetzung mit Kunden und Lieferanten, Springer, Berlin 2004. [32] Thomas, O., Walter, P., Loos, P., Product-Service System, in: Wirtschaftinformatik, 3, 2008, S. 208-219. [33] Meiren, T., Barth, T., Service Engineering in Unternehmen umsetzen: Leitfaden fur die Entwicklung von Dienstleistungen, Fraunhofer IRB Verlag, Stuttgart 2002. [34] Erl, T., SOA: Principles of service design, Prentice Hall, Upper Saddle River, NJ 2007. 232 VERBESSERUNG DER WIRKSAMKEIT DES SOA-DESIGN DURCH REFERENZMODELLE Oliver Holschke, Olga Levina, Jannis Rake, Philipp Offermann1 Kurzfassung Dieser Beitrag untersucht die Anwendung von industriespezifischen Referenzmodellen im Entwurfsprozess für Serviceorientierte Architekturen (SOA). Während sowohl Methoden der Modellwiederverwendung, als auch verschiedene Qualitätsframeworks für die Bewertung von Referenzmodellen vorgeschlagen wurden, sind Untersuchungen, die einen konkreten Ansatz der Modellwiederverwendung im SOA-Entwurf vorstellen und mittels Qualitätskriterien evaluieren, nicht bekannt. Wir schlagen ein erweitertes Qualitätsmodell für die Evaluierung der Referenzmodellanwendung im SOA-Entwurf vor und wenden es auf eine existierende Methode an, deren integrativer Bestandteil die Wiederverwendung von Referenzmodellen ist. Es wurde ein Laborexperiment durchgeführt, welches qualitative und zeitliche Vorteile des Referenzmodelleinsatzes zeigt. 1. Einführung In liberalisierten Märkten sehen sich Dienstleistungsunternehmen steigenden Kundenanforderungen gegenüber und einem stärkeren Wettbewerb ausgesetzt. Weitere Herausforderungen sind die Notwendigkeit der schnellen Bereitstellung von Diensten (z.B. mobile Dienste, Internetdienste), der Bedarf an abteilungsübergreifenden, wiederverwendbaren Funktionalitäten und Redundanzreduktion, weitreichende Prozessautomatisierung und steigende Integrationsaktivitäten. Ein Architekturansatz, der diesen Anforderungen an ein flexibles Unternehmen gerecht wird, ist die Serviceorientierte Architektur (SOA) [9], [3], [6]. Sie basiert auf der Interaktion von autonomen und interoperablen Services, die auf allen Anwendungssystemschichten – Geschäftsprozess, Präsentation, Geschäftslogik, Datenhaltung – existieren. Für die Service-Interaktionen innerhalb der Unternehmensarchitektur ist eine intensive Organisation – sowohl IT- als auch fachseitig – notwendig, die die verteilten Verantwortlichkeiten und Kommunikationsprozesse und die Verwaltung der Menge an Metadaten umsetzen kann. Dies stellt hohe Anforderungen an die Planung und den Entwurf einer SOA [6]. Da Unternehmen nie unabhängig von spezifischen Kontexten existieren, hat es immer wieder Bemühungen gegeben, das Wissen um branchenbedingte Artefakte, wie funktionale Domänen, Geschäftsprozesse, Informationsobjekte, Organisationsformen usw. in industriespezifischen konzeptuellen Modellen zu konsolidieren; die wiederverwendungsorientierte Anwendung solcher Referenzmodelle soll den 1 Fachgebiet Systemanalyse und EDV, Technische Universität Berlin, Franklinstr. 28-29, 10587 Berlin, Deutschland. 233 Entwurf und die Entwicklung von Unternehmensarchitekturen und ihrer Anwendungssysteme effizienter und effektiver gestalten [13]. Die systematische Anwendung eines Referenzmodells könnte auch den Entwicklungsprozess für eine SOA positiv beeinflussen. Aus der Forscherperspektive und für Unternehmen stellt dies eine wichtige Fragestellung dar. Während einige methodische Ansätze der Referenzmodellanwendung, als auch verschiedene Qualitätsframeworks für die Bewertung von Referenzmodellen vorgeschlagen wurden, sind empirische Befunde über den tatsächlichen Erfolg der Referenzmodellanwendung im Entwurfsprozess für Unternehmensarchitektur und -systeme nur unzureichend vorhanden. In diesem Beitrag wird ein Evaluationsmodell vorgestellt, das aus der ökonomischen Perspektive heraus genau diesen Nutzen der Referenzmodellanwendung erklärt. Es berücksichtigt dabei den Nutzen des Referenzmodelleinsatzes im SOA-Entwurfsprozess gemessen an Effizienz- und Effektivitätskriterien, die Kosten, die mit der Erstellung und Anwendung von Referenzmodellen verbunden sind [5] und stellt sowohl Kosten als auch Nutzen Gestaltungsansätzen gegenüber, die nicht auf Referenzmodelle zurückgreifen. Ein Novum in unserem Evaluationsmodell ist die Berücksichtigung von zukünftigen Gestaltungsaufgaben, d.h. die für Unternehmensarchitektur und IT-Systeme zu modellierenden Anforderungen, als statistisch verteilte Größe. Diese Anforderungen können in unterschiedlichem Maß in den Referenzmodellen repräsentiert sein: eine stärkere „Nähe“ der Anforderungen zu den Referenzmodellen erleichtert den Entwurf; inhaltlich entfernte Anforderungen dagegen führen zu hohen Kosten durch die Adaption des Referenzmodells [14]. Die Annahme der Verteilung dieser Anforderungen kann die Beurteilung der Vorteilhaftigkeit des Referenzmodelleinsatzes zusätzlich unterstützen. Wir wenden unser Evaluationsmodell auf ein existierendes Framework, d.h. eine Methode inklusive Werkzeugunterstützung, an, das im Rahmen des Forschungsprojekts PrOSeRO (ProcessOriented Service Repository and Ontology) in Kooperation von Technische Universität Berlin, Germany, Ben Gurion University, Beer-Sheva, Israel und Deutsche Telekom Laboratories entwickelt wurde und explizit die Wiederverwendung von Referenzmodellen im SOAEntwurfsprozess einbezieht. Dazu wurde ein Laborexperiment durchgeführt, wobei ein realer Geschäftsprozess eines international tätigen Telekommunikationsunternehmens für SOA zu gestalten war. Die experimentellen Gruppen haben das bereitgestellte Framework mit bzw. ohne Nutzung eines industriespezifischen Referenzmodells angewandt, um den Vergleich zu ermöglichen. Im Experiment haben wir festgestellt, dass die Anwendung des Referenzmodells im SOA-Entwurf in der Tat zu qualitativ besseren Anwendungsmodellen und verkürzten Modellierungszeiten führt. Der Rest der Arbeit gliedert sich wie folgt: zunächst beschreiben wir das im Forschungsprojekt entstandene Framework für den referenzmodellgestützten Entwurf von SOA und erläutern die übergreifende Methode, die Entwurfsartefakte und die Wiederverwendungsprozesse der Referenzmodellanwendung. Wir stellen anschließend unser Evaluationsmodell vor, mit dem wir das Framework bewerten. Dann beschreiben wir die angewandte Forschungsmethode und den Aufbau, die Durchführung und die Ergebnisse des Laborexperiments. Abschließend diskutieren wir die Limitationen der Untersuchung und geben einen Ausblick auf zukünftige Forschungsaktivitäten. 2. Referenzmodelle beim SOA-Entwurf: Einordnung in Stand der Forschung Im Rahmen des Forschungsprojekts PrOSeRO wurde in Zusammenarbeit von Technische Universität Berlin, Germany, Ben Gurion University, Beer-Sheva, Israel und den Deutsche Telekom AG Laboratories ein prototypisches Framework entwickelt, das sowohl die explizite Referenzmodellanwendung in den Entwurfsprozess einbezieht als auch eine integrierte Werkzeugunterstützung bereitstellt. Es unterstützt die Modellierung und Realisierung von 234 Geschäftsprozessen nach dem Architekturprinzip der SOA in allen Phasen der Entwicklung, d.h. von der referenzmodellbasierten Modellierung von Geschäftsprozessen und Datenobjekten über das Auffinden und Einbinden der richtigen Services bis zur Orchestrierung, Ausführung und RuntimeÜberwachung. Die Möglichkeit des expliziten Rückgriffs auf existierende Designmodelle (wie Geschäftsprozess- und Informationsmodelle) in neuen SOA-Projekten stellt ein integrales Merkmal des Frameworks dar. Die Wiederverwendung von solchen industriespezifischen Referenzmodellen soll zu reduzierten Entwicklungszeiten und qualitativ besseren Modellierungsartefakten führen [5]. In [2], [11] und [12] wurden Techniken der Referenzmodellwiederverwendung vorgestellt. In [14] wurde ein Referenzmodell-Managementsystem für Business Engineering entwickelt, welches auf der Wiederverwendung von Geschäftsprozessmodellen basiert. Ein ähnliches Framework für Workflow Model Reuse wurde von [16] vorgestellt. Gestaltungsansätze für Infrastrukturen für die Wiederverwendung von konzeptuellen Modellen werden in [15] beschrieben. Die oben genannten Ansätze beziehen sich jedoch selten auf die systematische Wiederverwendung von konzeptuellen Modellen in konkreten Entwurfsprozessen, sondern vielmehr auf Modelle höherer Abstraktionsgrade zur ganzheitlichen Betrachtung von Unternehmen. Bis auf wenige Ausnahmen sind die Ansätze im Allgemeinen nicht für die konkrete Gestaltung von Unternehmens- und Softwarearchitekturen spezifiziert. Für SOA im speziellen gilt dies ebenfalls. Zudem wird die Werkzeugunterstützung kaum berücksichtigt (mit Ausnahme von [14]). Bezüglich der Referenzmodellwiederverwendung existieren in den genannten Arbeiten keine Fallstudien, was die Beurteilung unter realen Bedingungen in Unternehmen erschwert. Unser Framework integriert diese bisher isoliert betrachteten Aspekte für die referenzmodellbasierte, methodisch und werkzeugtechnisch unterstützte SOA-Entwicklung. 3. Modellierungsmethode und –werkzeug Die referenzmodellgestützte Gestaltung von SOA stellt ein integriertes methodisches Vorgehen für die Konstruktion von speziellen konzeptuellen Modellen dar. Aufgrund der ausgeprägten Geschäftsprozessorientierung von SOA werden ausspezifizierte Geschäftsprozess- und Datenmodelle benötigt, um adäquate Services ableiten zu können. Ein Überblick der von uns entwickelten Methode, die den Wiederverwendungsaspekt von Referenzmodellen im Hinblick auf das Design für SOA besonders unterstützt, ist in Abbildung 1 dargestellt. Die von uns fokussierte Phase der Referenzmodellwiederverwendung ist darin unschattiert hervorgehoben. Die Methode umfasst im Wesentlichen sieben Phasen: 1. Modellerstellung, 2. Modellsuche, 3. Modelladaption, 4. Modellvalidierung, 5. Service-zu-Aktivität-Matching, 6. Mediatorgenerierung und 7. Orchestierung Jede dieser Phasen wird durch ein integriertes Tool-Set unterstützt. Dieses umfasst ein Modellierungstool, das als Eclipse-Plug-In realisiert ist. Das Modellierungstool stellt Techniken zur Wiederverwendung von Geschäftsprozess- und Datenmodellen bereit, die in einem separat entwickelten Repository abgelegt sind. Folgend wird auf die einzelnen Phasen näher eingegangen. In der Modellerstellungsphase werden Geschäftsprozessmodelle und zugehörige Informationsmodelle erstellt und im Repository abgespeichert. Die Erstellung der Modelle kann im Rahmen von Projekten erfolgen; die Modellerstellung kann aber prinzipiell auch unabhängig von konkreten Projekten und als Entwicklung von „Best Practices“ vorgenommen werden. Mit wachsendem Repository und zunehmender Projekterfahrung ist zu erwarten, dass die Modellerstellung vermehrt durch Modellsuche und Adaption existierender Modelle (Phasen 2 und 3) erfolgen wird. Ein hoher Aufwand entsteht bei der initialen Erstellung von Prozessmodellen, die ein industriespezifisches Referenzmodell und seine Einteilung in Prozessgruppen weiter detaillieren und spezifizieren. Durch zunehmende Wiederverwendung sinkt dieser Aufwand. 235 Abbildung 1. Methode für das referenzmodellgestützte Prozessdesign und mögliche Reuse-Mechanismen. Um im Repository suchen zu können stehen prinzipiell zwei Ansätze in der Phase Modellsuche zur Verfügung: 1) Spezifikation und 2) Navigation. Bei der Spezifikation beschreibt der Anwender Merkmale und Merkmalsausprägungen. In unserer Methode sind die Referenzmodelle mit KontextTags versehen. Eine spezifizierte Anfrage wird mit diesen Tags abgeglichen und die entsprechenden Modellkandidaten werden dem Anwender als bestmögliche Modelle für die Aufgabe angezeigt. Der Kontextfilter filtert Datenobjekte und Aktivitäten heraus, die nicht relevant für die Modellierungsaufgabe sind. Gefilterte Datenelemente können jedoch nachträglich immer wieder in das Modell übernommen werden. Somit ist die für den Anwender notwendige Variabilität ausreichend gegeben. Bei der Navigation wird der Anwender durch die verfügbaren Modelle über verschiedene Schichten geführt. Dies kann auf einer sehr grobgranularen Ebene begonnen werden, von der aus man sich auf tiefer gelegene und detaillierte Modellebenen begeben kann. Am Ende dieser Phase ist ein spezifisches Modell identifiziert und selektiert. In der Phase der Modelladaption bedient man sich verschiedener Techniken, mit denen man die Wiederverwendung von konzeptuellen Modellen unterstützen kann: Analogy Construction, Aggregation, Konfiguration, Spezialisierung, Instanziierung, Restriktion, Assembly und Adoption [1, 2, 12]. Anzumerken ist, dass in der Literatur „Reuse Process“ und „Reuse Mechanism“ synonym für Wiederverwendungstechnik verwendet werden. In unserem Framework werden die Wiederverwendungstechniken Adoption, Analogie-Konstruktion, Restriktion und Spezialisierung unterstützt. Wir haben uns für diese Techniken entschieden, da diese einerseits die notwendige Variabilität bieten, die spezifische Anpassungen in der Unternehmensrealität meist erfordern, und andererseits akzeptable Aufwände für die Vorbereitung darstellen [2]. Bei der Adoption wird das selektierte Referenzmodell übernommen wie es ist ohne weitere Adaption. Bei der Analogiekonstruktion orientiert sich ein Modellierer an einem Referenzmodell und kann bestimmte Merkmale übernehmen. Diese Technik besitzt keine bestimmte Konstruktionsbeziehung zwischen Referenzmodell und Anwendungsmodell und genießt daher viele Freiheitsgrade. Bei der Restriktion müssen die Modellelementtypen, die zugelassen oder ausgelassen werden, spezifiziert werden. Abhängig von der Perspektive des Anwenders können dann Modellelemente automatisch entfernt werden. Bei der Spezialisierung werden Merkmale des Referenzmodells an das Anwendungsmodell vererbt, die dann vom Modellierer je nach Anwendungsfall frei modifiziert werden können. Am Ende der Adaptionsphase ist ein anforderungsgerechtes Geschäftsprozess- und Informationsmodell spezifiziert. In der Phase der Modellvalidierung wird das spezifizierte Modell auf eventuelle Fehler bzw. Inkonsistenzen geprüft. Das validierte Geschäftsprozess- und Datenmodell geht dann in die Phase des Matchings von Services zu Aktivitäten über. Das Matching basiert auf einem semantischen und syntaktischen Abgleich zwischen Aktivitätsnamen, Ein- und Ausgabeparametern und Vor- und Nachbedingungen der Konstrukte des Geschäftsprozessmodells einerseits und der verfügbaren Services andererseits. Die Services werden in einem Repository verwaltet. Aufgrund von möglichen Abweichungen zwischen Ein- bzw. Ausgabeparametern aufeinanderfolgender Services sind entsprechende Mediatoren zu erstellen, die die Datenfelder richtig aufeinander abbilden. Dies erfolgt in der Phase der Mediatorengenerierung. Sobald die für den Geschäftsprozess notwendigen Services identifiziert und Mediatoren generiert sind, kann die Orchestrierung erstellt werden. 236 Ergebnisse der gesamten Methode sind die Artefakte, die für die Ausführung von Geschäftsprozessen auf Basis von Services in SOA erforderlich sind. Dies sind Geschäftsprozessmodelle formuliert in der Business Process Modeling Notation (BPMN), Datenmodelle für den Informationsfluss auf Basis der Core Components Technical Specification (CCTS) repräsentiert als XML Schema Definition (XSD), Mediatoren dargestellt als XSL Transformationen und Orchestrierungsspezifikationen notiert in der Business Process Execution Language (BPEL). 4. Evaluationsmodell für referenzmodellgestütztes SOA-Design Bisher sind nur wenige Evaluierungsmethoden für die Vorteilhaftigkeit der Referenzmodellierung vorgestellt worden, darunter der multi-perspektivische Ansatz von [4] und das linguistikbasierte Vergleichsframework von [10]. Allerdings adressieren diese nicht umfassend genug die spezifischen Eigenschaften von Referenzmodellen [5]. Auch stehen die empirischen Untersuchungen bezüglich der Qualitätsziele und erhofften Verbesserungen durch den Referenzmodelleinsatz noch aus. Um die Vorteilhaftigkeit der Referenzmodellanwendung (bzw. Nicht-Anwendung) in der SOA-Gestaltung zu bewerten, entwickeln wir ein Evaluationsmodell, welches sowohl die Qualität der Konstruktionsergebnisse als auch Kosten und Nutzen beider Alternativen bewertet. Dies soll die Beurteilung von Effektivität und Effizienz der Methoden ermöglichen. 4.1. Bewertung der Qualität von Konstruktionsergebnissen Die Bewertung der Artefakt-Qualität bezieht sich in unserem Evaluationsmodell darauf, wie effektiv das Ergebnis einer Methode ist, die Referenzmodelle wiederverwendet. Sie basiert auf der Vorarbeit von [8], welche ein Framework zur Evaluierung von konzeptuellen Modellen entwickelt haben. Dieses Framework basiert auf drei verschiedenen Qualitätskategorien: • • • Syntaktische Qualität: Je höher die Konformität mit den Regeln (z.B. Sprache) des Modells, desto höher ist die syntaktische Qualität Semantische Qualität: Je ähnlicher das Modell der Anwendungsdomäne und somit den Nutzeranforderungen genügt, desto höher ist die semantische Qualität Pragmatische Qualität: Je verständlicher das Modell für die Zielgruppe ist, desto höher ist die pragmatische Qualität 4.2. Kosten-Nutzen-Modell für die Wiederverwendung von Modellen Im Vergleich zu bestehenden Kosten-Nutzen-Modellen bezieht sich das folgende Modell speziell auf die Kosten der Wiederverwendung von Geschäftsprozess- und Datenmodellen. Sowohl die Erkenntnisse aus dem relativ nahen Bereich des Software-Reuse als auch die Überlegungen zur ökonomischen Perspektive von [5] flossen in die Konstruktion des Modells ein. Eine KostenNutzen-Analyse in diesem Bereich betrachtet zwei Aspekte: • • Die Kosten für die Nutzung von wiederverwendbaren Geschäftsprozess- und Datenmodellen gegenüber den Kosten für die Modellierung ohne Referenzmodelle und der aus den Kosten abgeleitete Nutzen und die Beurteilung der Vorteilhaftigkeit der verschiedenen Ansätze als eine Differenz zwischen diesen beiden Nutzen. 237 4.3. Bestandteile des Kosten-Nutzen-Modells Das Kostenmodell beinhaltet zwei Teile, zum einen die Kosten für die Modellierung ohne Wiederverwendung als auch die Kosten für die Modellierung mit Wiederverwendung. Abgeleitet aus den vorherrschenden Elementen aus [7] definiert unser Modell die folgenden Variablen: • • • • • COM: Kosten für die klassische Modellierung ohne Wiederverwendung CC: Kosten für die initiale Konstruktion eines Referenzmodells N: Anzahl der Wiederverwendungen des Referenzmodells Δ(M,RM): Abstand zwischen Ist-Modell und Referenzmodell CA(Δ(M,RM)): Anpassungskosten für das Referenzmodell in Abhängigkeit vom Abstand. Aus den so definierten Variables lässt sich eine Kostenfunktion für die Wiederverwendung von Modellen aufstellen. Diese steht in Abhängigkeit vom Abstand Δ zwischen dem zu modellierenden Modell und dem Referenzmodell. Dabei kann man davon ausgehen, dass mit einem höheren Abstand die Kosten für die Anpassung des Referenzmodells steigen. Die Kosten CRM für die Erstellung eines Modells unter Wiederverwendung ergeben sich also zu: C CRM = C + C A (Δ( M , RM )) (1) N Dabei ist davon auszugehen, dass sobald Δ > 0 ist, das Referenzmodell nicht einfach übernommen sondern angepasst werden muss, was zu den bereits erwähnten Anpassungskosten CA führt. Die Kosten COM für die klassische Modellierung sind unabhängig von Δ und bleiben somit konstant. Dies ist damit zu erklären, dass eine Modellierung „from scratch“ stattfindet und genau die Bedürfnisse des zu erstellenden Modells erfüllen kann. Als Maßeinheit für die Kosten der Modellierung wird zunächst die Zeit t verwendet, welche den Aufwand darstellt das Modell neu zu erstellen bzw. ein bestehendes Referenzmodell anzupassen. Der Abstand Δ zwischen realem Ist-Modell und Referenzmodell liegt im Intervall [0,1]. Im Falle von Δ = 0 stimmt das Referenzmodell exakt mit dem zu erstellenden Modell überein und es fallen keine Anpassungskosten an. Im Falle von Δ = 1 gibt es keine Übereinstimmung zwischen beiden und das Modell muss vollständig neu erstellt werden. Im letzteren Fall würden die Anpassungskosten CA(Δ = 1) den Kosten COM für die klassische Modellierung ohne Wiederverwendung entsprechen. Zu beachten ist hier jedoch, dass die anteiligen Kosten CC/n der initialen Erstellung des Referenzmodells weiterhin betrachtet werden müssen. Wir leiten das Nutzenmodell von den Erstellungskosten C ab und formulieren die einfache Nutzenfunktion U(C) = - C + d. Dies bedeutet, dass niedrigere Erstellungskosten einen höheren Nutzen darstellen. Die Nutzenfunktion gilt für beide Kostenfunktionen COM und CRM. Die Konstante d stellt einen beliebigen Verschiebungsfaktor dar. Es folgt, dass wenn COM = CRM, dann auch UOM = URM. Eine einfache Entscheidungsregel, um zu sagen ob der Wiederverwendungsansatz vorteilhaft ist, lautet: Wenn URM > UOM, dann verwende den Modellwiederverwendungsansatz, ansonsten entwerfe „from scratch“ (siehe Abbildung 2 links). 4.4. Verteilung der Abstände zwischen Modellierungsaufgabe und Referenzmodell In dem vorgestellten Kostenmodell wurde bis jetzt nur von einem zu erstellenden Modell ausgegangen. Wir erweitern diesen Gedanken, indem wir verschiedene zukünftige Modellierungsaufgaben zulassen, was durch die horizontale Skalierung Δ(M,RM) ausgedrückt wird. D.h., dass das Δ zwischen Referenzmodell und vorliegender Modellierungsaufgabe im Rahmen verschiedener Szenarien und Projekte unterschiedliche Ausprägungen haben kann. Um 238 eine valide Aussage über den tatsächlichen Nutzen von der Wiederverwendung von Modellen treffen zu können, muss diesen Unterschieden des Δ Rechnung getragen werden. Wir gehen vereinfachend von einer Normalverteilung um den Mittelwert von Δ aus. Wir stellen die Vermutung an, dass wenn Modellierungsanforderungen nicht zu stark von den verfügbaren Referenzmodellen abweichen, dann ist die Wiederverwendung vorteilhaft und lässt sich durch unser Modell erklären. Weiterhin werden die Gesamtkosten CGOM der Modellierung ohne Wiederverwendung durch die Summe über die Einzelkosten aller Projekte N beschrieben: N G COM = ∑i =1 COM i (2) Analog werden auch die Gesamtkosten für die Modellierung mit Wiederverwendung bestimmt. Allerdings kommt auch hier zum Tragen, dass die initialen Kosten der zur Konstruktion der Referenzprozesse nur einmal anfallen: N G CRM = CC + ∑i =1 C Ai (Δ( M , RM )) (3) Eine zusammenfassende Darstellung des Kosten-Nutzen-Modells ist in Abbildung 2 zu sehen. Der Mittelwert von Δ kann in unterschiedlichen Unternehmen und verschiedenen Industrien variieren. Durch die Analyse einer größeren Anzahl an Prozessen in einem Unternehmen und/oder einer Industrie kann dieser abgeschätzt werden und somit als Basis für die Beurteilung der Vorteilhaftigkeit der Wiederverwendung dienen. Befinden sich eine Großzahl der Projekte im Bereich eines geringen Δ, ist davon auszugehen, dass die Wiederverwendung von Referenzmodellen vorteilhaft ist. Abbildung 2: Kosten und Nutzen der Referenzmodellwiederverwendung und Verteilung der Anforderungen. 5. Laborexperiment: Vergleich der Ergebnisse des SOA-Entwurfs mit und ohne Anwendung des Referenzmodells Wir haben ein Laborexperiment durchgeführt, in dem unser Evaluationsmodell angewendet wurde, um die Vorteilhaftigkeit des referenzmodellgestützten Entwurfsprozesses gegenüber einem „from scratch“-Ansatz für SOA zu bestimmen. 5.1. Forschungsdesign und Aufgabe Es haben 10 Testpersonen, die einen Informatik-affinen Hintergrund besitzen, an dem Experiment teilgenommen. Sie haben stellvertretend die Rolle von Business Analysten eingenommen. Die Teilnehmer wurden per Zufall zwei verschiedenen Treatment-Gruppen (A und B) zugeteilt. Durch diese Randomisierung sollten personenbezogene Störvariablen (wie z.B. besondere Klugheit oder branchenspezifisches Wissen) neutralisiert werden. Den Gruppen wurde jeweils ihre anzuwendende Vorgehensweise im Detail erläutert: Gruppe A sollte explizit auf die durch ein industrielles Referenzmodell bereitgestellten Prozess- und Informationsmodelle zurückgreifen, um Geschäftsprozesse für eine SOA zu entwerfen. Gruppe B dagegen stand das Referenzmodell nicht zur Verfügung – die Mitglieder konnten sich ausschließlich auf ihre mentalen Modelle und ihre Erfahrung stützen („from scratch“-Vorgehen). 239 Beiden Gruppen wurde die Aufgabe gestellt, einen realen Geschäftsprozess der Telekommunikationsbranche, der ihnen in Form einer textlichen Beschreibung zur Verfügung gestellt wurde, zu analysieren und gemäß dem vorgestellten Vorgehen für den SOA-Entwurf den Prozessablauf mit Informationsobjekten zu modellieren und entsprechende Service-Operationen mit In- und Outputs abzuleiten. Jede Gruppe hatte diese Aufgabe mit dem gelernten Vorgehen zu bewerkstelligen. Der zur Aufgabe vorgelegte, reale Geschäftsprozess beinhaltete das Anlegen und Validieren von neuen Kundendaten („Create and Validate Customer“) und ist unten näher beschrieben. Dieser Prozess tritt sehr häufig in Dienstleistungsunternehmen mit einer großen Anzahl an Kunden und unterschiedlichen Vertriebskanälen auf, ist aber im Grunde in jedem Unternehmen (in einer spezifischen Form) notwendig. 5.2. Referenzmodellbasis: eTOM Prozesshierarchie und SID Informationsmodell Die experimentelle Gruppe A kann auf die im Repository abgelegten Geschäftsprozess- und Informationsmodelle des Referenzmodells enhanced Telecom Operations Map (eTOM) und des zugehörigen Shared Information/Data Model (SID), die vom TeleManagement Forum (TMF) entwickelt werde, zurückgreifen. In eTOM/SID wird das Prinzip der Serviceorientierten Architektur explizit unterstützt. Basierend auf der Prozesshierarchie von eTOM haben wir für unser Experiment einen „Create and Validate Customer“-Prozess der horizontalen funktionalen Prozessgruppierung Customer Relationship Management (CRM) zugeordnet, da diese sich u.a. mit der Erfassung und der Pflege von Kundendaten befasst. Das SID-Modell ergänzt das o.g. prozessbezogene eTOM um die Datensicht. Es stellt eine für die Telekommunikationsindustrie branchenweit gültige Sprache zur Beschreibung von Managementinformationen bereit. 5.3. Betrachtete Variablen Die unabhängige Variable in unserem Experiment hat zwei Ausprägungen, die sich auf den Wiederverwendungsaspekt im Modellierungsvorgehen beziehen: • • I1: Das Vorgehen zur Prozess- und Informationsobjektmodellierung für SOA stützt sich explizit auf ein vorhandenes Prozess- und Informationsmodell (eTOM/SID) (Treatment 1). I2: Das Vorgehen zur Prozess- und Informationsobjektmodellierung für SOA stützt sich nicht auf ein vorhandenes Prozess- und Informationsmodell, sondern die Probanden können lediglich auf ihre Erfahrungen und mentalen Modelle zurückgreifen (Treatment 2). Das Ziel der Methoden mit bzw. ohne Wiederverwendung von Designmodellen ist die Beschleunigung des Design-Prozesses und die Verbesserung der Qualität der entworfenen Artefakte. Für die Evaluierung der beiden Ansätze mit bzw. ohne Wiederverwendung von Entwurfsmodellen haben wir die folgenden abhängigen Variablen berücksichtigt, die auf dem Erfolg der Aufgabenbearbeitung basieren: • • D1: Modellierungseffizienz. Dieses Konstrukt wurde erfasst, indem die Zeit gemessen wurde, die die Gruppen benötigt haben, um den Geschäftsprozess mit den Informationsobjekten und die abgeleiteten Service-Operationen – nach eigenem Ermessen – umfassend und aufgabengerecht zu modellieren. Die hier gemessene Zeit bildet die Basis für das von uns entwickelte Kosten-Nutzen-Modell. D2: Artefaktqualität. Dieses Konstrukt wurde gemessen, indem Experten das Geschäftsprozess- und Informationsobjektmodell hinsichtlich der Qualität beurteilt haben. Für die Beurteilung der Modellqualität wurden vier Variablen angewandt: GesamtArtefaktqualität (D2), syntaktische Qualität (D21), semantische Qualität (D22) und pragmatische Qualität (D23). 240 6. Bewertung der Modellierung und der Ergebnisse Mit Beginn der Modellierung wurde die Zeit bis zur Fertigstellung aller erforderlichen Modelle gemessen. Ausschlaggebend für die Fertigstellung war der Konsens der experimentellen Gruppe darüber, dass die Prozesse, Informationen und Service-Operationen aus eigener Sicht aufgabengerecht modelliert wurden. Nach der Fertigstellung aller Modelle wurden jedem Modell drei Reviewer zugeordnet. Die Modelle wurden den Reviewern per Zufall zugeordnet und die Reviews wurden im double-blind Verfahren durchgeführt (d.h. die Reviewer wussten nicht wessen Modelle sie betrachteten und die Modellierer wussten nicht wer ihre Modelle bewertet). Bezüglich der Artefaktqualität wurden insgesamt 48 Beurteilungen vorgenommen. Alle Qualitätsbeurteilungen wurden auf einer 5-Punkt-Likert-Skala vorgenommen mit den Werten von 1 (sehr schlecht) bis 5 (exzellent). Die Experten wurden durch eine Gruppe bestehend aus den Autoren und zusätzlich jeweils einem Modellierungsexperten des Fachgebiets und der Deutsche Telekom Laboratories gestellt, d.h. insgesamt gab es sechs Reviewer. In Tabelle 1 sind die Ergebnisse für beide experimentellen Gruppen über alle abhängigen Variablen zusammengefasst. Tabelle 1. Vergleich der experimentellen Gruppen. I1 (Treatment 1) I2 (Treatment 2) D1: Modellierungszeit (in Minuten) 182 311 D2: Gesamt-Artefaktqualität 4.3 2.4 D21: Syntaktische Qualität 4.6 2.3 D22: Semantische Qualität 4.0 2.7 D23: Pragmatische Qualität 4.8 3.2 Abhängige Variable Es können fünf Vergleiche vorgenommen werden. Fünf von fünf Vergleichen haben ein signifikantes Ergebnis gezeigt. Die Gruppe, die das eTOM/SID-Modell als Ausgangspunkt für die SOA-Modellierung zur Verfügung hatte (Treatment 1), konnte über alle abhängigen Variablen signifikant besser abschneiden, als die Gruppe, die den Geschäftsprozess inklusive der Informationsobjekte für den SOA-Entwurf „from scratch“ aufbereiten musste. 7. Zusammenfassung und Ausblick In diesem Beitrag wurde die Frage untersucht, ob die Wiederverwendung von industriespezifischen (Referenz-)Modellen den SOA- Entwurfsprozess verbessert. Dabei wurden die Verkürzung der Entwicklungszeit, sowie die Verbesserung der Qualität der Artefakte angenommen. Um diese Annahmen zu überprüfen, wurde die PrOSeRO-Methode entwickelt und validiert. Sie erfüllt Anforderungen anderer SOA-Entwicklungsmodelle wie Geschäftsprozessorientierung, formelle Vorgehensweise und Rollendefinition. Zusätzlich beinhaltet die Methode eine explizite Wiederverwendung von Referenzprozessen und -daten. Alle Phasen des SOA-Entwurfsprozesses werden durch in der Methode definierte und enthaltene Werkzeuge unterstützt. Ansätze für Vorgehensmodelle, die explizit die Wiederverwendung von (Prozess-)Modellen unterstützen, werden zwar in der Literatur beschrieben, jedoch ist eine solche Methode in der Praxis noch nicht in der Breite umgesetzt worden. In diesem Beitrag wurde ein erweitertes Evaluationsmodell vorgestellt, das die Kosten und Vorteile der Wiederverwendung von Prozess- und Informationsmodellen und die semantische und syntaktische Qualität der Konstruktionsartefakte abschätzt. Das Modell wurde in einem Laborexperiment evaluiert. Die erhaltenen Ergebnisse zeigen, dass die Vorteile der Wiederverwendung von (Referenz-)Modellen bestimmt werden 241 können. Für die Zukunft eröffnet diese Arbeit neue Möglichkeiten auf unterschiedlichen Ebenen. Zunächst sollen weitere Experimente mit unterschiedlichen Prozessen (und unterschiedlichen Abständen zu Referenzmodellen) und größeren Stichproben wiederholt werden. Durch den Abgleich mit Daten aus realen Projekten sollen die erhaltenen Ergebnisse verifiziert werden. 8. Literatur [1] BECKER, J., DELFMANN, P. AND KNACKSTEDT, R. , Adaptive Reference Modeling: Integrating Configurative and Generic Adaptation Techniques for Information Models, in Reference Modeling, J. Becker, Delfmann, P. , Editor. 2007, Physica-Verlag: Heidelberg. p. 27-58. [2] BECKER, J., JANIESCH, C., PFEIFFER, D., Towards more Reuse in Conceptual Modeling – A Combined Approach using Contexts, in: J. Krogstie, Opdahl, A. L., and Sindre, G. (Hrsg.), 19th International Conference on Advanced Information Systems Engineering, Trondheim, Norway 2007. S. 81-84. [3] ERL, T., Service-Oriented Architecture - Concepts, Technology, and Design, Prentice Hall Upper Saddle River, NJ 2005. [4] FETTKE, P., LOOS, P., Multiperspective Evaluation of Reference Models - Towards a Framework, in: M.a.P. Jeusfeld, O. (Hrsg.), Conceptual Modeling for Novel Application Domains, Chicago, IL 2003. S. 80-91. [5] FRANK, U., Evaluation of Reference Models, in Reference Modeling for Business Systems Analysis, P. Fettke, Loos, P., Editor. 2007, Idea Group Publishing: London, England. p. 118-140. [6] KRAFZIG, D., BLANKE, K., AND SLAMA, D., Enterprise SOA - Service-Oriented Architecture Best Practice, Prentice Hall Upper Saddle River, NJ 2005. [7] LIM, W.C., Reuse Economics: A Comparison of Seventeen Models and Directions for Future Research, in: the Fourth International Conference on Software Reuse 1996. S. 41-50. [8] LINDLAND, I., SINDRE, G., SOLVBERG, A., Understanding quality in conceptual modeling IEEE Software Bd. 11 (1994, ). S. 42-49 [9] MARKS, E.A., BELL, M, Executive’s Guide to Service-Oriented Architecture, John Wiley & Sons, Inc., Hoboken, NJ 2006. [10] MIŠIC, V., ZHAO, J. L. , Evaluating the Quality of Reference Models, in: A. Laender, Liddle, S. W., and Storey, V.C. (Hrsg.), 19th International Conference on Conceptual Modeling, Salt Lake City, Utah 2000. S. 484-498. [11] REINHARTZ-BERGER, I., SOFFER, P., STURM, A. , A Domain Engineering Approach to Specifying and Applying Reference Models, in: J.a.F. Desel, U. (Hrsg.), Workshop on Enterprise Modelling and Information Systems Architectures, Klagenfurt, Austria 2005. S. 50-63. [12] SOFFER, P., REINHARTZ-BERGER, I., AND STURM, A., Facilitating Reuse by Specialization of Reference Models for Business Process Design, in: 19th International Conference on Advanced Information Systems Engineering (CAiSE'07), Trondheim, Norway 2007. [13] SUTCLIFFE, A., The Domain Theory, Lawrence Erlbaum Associates, London, England 2002. [14] THOMAS, O., HORIUCHI, M., TANAKA, M. , Towards a reference model management system for business engineering, in: H. Haddad (Hrsg.), 2006 ACM Symposium on Applied Computing, Dijon, France 2006. [15] VOM BROCKE, J., THOMAS, O. , Designing Infrastructures for Reusing Conceptional Models, in: 9th International Conference on Business Information Systems, Klagenfurt, Austria 2006. [16] YU, C., WU, G., YUAN, M., Business process modeling based on workflow model reuse, in: International Conference on Services Systems and Services Management (ICSSSM '05) 2005. S. 951-954. 242 PROCESS MINING ZUR STEUERUNG VON CALL CENTER-PROZESSEN Frank Bensberg1, André Coners2 Kurfassung Der vorliegende Beitrag stellt Anwendungsperspektiven des Process Minings zur Steuerung von Prozessen dar, die in Call Centern ablaufen. Mit dem Instrument des Process Minings werden anhand eines Praxisbeispiels die Call Center-Prozesse eines Finanzdienstleisters analysiert. Ziel ist die Ermittlung der Einflussfaktoren auf die Prozesseffektivität und -effizienz. Diese Einsichten über die Leistungsfähigkeit der Prozesse wiederum können für Steuerungszwecke genutzt werden. 1. Einleitung Ein Call Center wickelt Kommunikationsprozesse zwischen Menschen sowie zwischen Menschen und Maschinen mit dem Zweck ab, Services zu erbringen oder Leistungen zu vertreiben. Beispielsweise kann eine Beschwerde (sog. Prozessobjekt) kommuniziert werden, die sodann von einem Mitarbeiter des Call Centers entgegengenommen und bearbeitet wird. Oder ein Call CenterMitarbeiter kommuniziert Informationen über Produkte, um diese zu vertreiben. Nachfolgend thematisierte Analysebeispiele beziehen sich auf das fiktive unternehmensinterne Call Center einer Bank. Bislang wurde in der Literatur noch kein Konzept für die Anwendung von Verfahren des Process Minings zur Steuerung von Call Center-Prozessen vorgelegt. Vor diesem Hintergrund zielt der vorliegende Artikel darauf ab, Ansatzpunkte zur Schließung dieser Lücke aufzuzeigen. Dazu werden im zweiten Kapitel die Informationssystemarchitektur, die Prozesse und die für das Process Mining verfügbare Datenbasis eines Call Centers erläutert. Außerdem soll anhand von Beispielen aufgezeigt werden, wie Call Center traditionell gesteuert werden. Daran anknüpfend thematisiert Kapitel drei die Grundlagen des Process Minings und dessen Anwendungsperspektiven für Call Center. Der Beitrag schließt mit einer Zusammenfassung der Ergebnisse und deren kritischen Betrachtung. 2. Informationssystemarchitektur und Prozesse eines Call Centers Abbildung 1 schematisiert die Informationssystemarchitektur (kurz: IS-Architektur) und Kommunika- tionsprozesse eines Call Centers. Vereinfachend wird in der Abbildung und im Folgenden von tele1 2 ERCIS, Germany Horváth & Partners, Deutschland 243 fonbasierten Kommunikationsprozessen ausgegangen. Zu entnehmen ist, dass sich die ISArchitektur eines Call Centers aus den Grundelementen „Datenbanken“ und „Call CenterLeitstand“ zusammensetzt. Dabei umfasst die Datenbankschicht sowohl die Datenbanken der im betrachteten Unternehmen genutzten Transaktionssysteme (z. B. ERP-System) als auch Datenbanken, die als Business Intelligence-Komponenten spezifisch die Prozesse unterstützen. Innerhalb des Leitstandes werden die Kommunikationsprozesse gesteuert. Call Center-externe Kommunikationspartner InboundProzess OutboundProzess Call CenterLeitstand Interactive Voice Recognition Automatic Call Distribution IVR Dialer ACD Agentenarbeitsplätze Datenbanken Transaktionssysteme Business Intelligence Workflow Management System (WFMS) Customer Relationship Management (CRM) Enterprise Ressource Planning (ERP) Supply Chain Management (SCM) Data Warehouse (DWH) Kampagnendaten Vorhersagemodelle Gesprächshistorie Videos Trainingsdaten Abbildung 1: Schematische IS-Architektur Prozesssteuerung in Call Centern geschieht entweder durch weitgehend automatisierte ITsystembasierte Reaktionen auf Kennzahlenabweichungen oder manuelle Parametrisierungen technischer Elemente des Informationssystems sowie Anweisungen gegenüber den telefonierenden Call Center-Mitarbeitern (sog. Agenten). Mithin umfasst der Leitstand einerseits Regeln und technische Einrichtungen zum Eingriff in bereits instanziierte oder noch zu instanziierende Prozesse, die automatisiert abgearbeitet werden können, andererseits Mitarbeiter, die manuell regeln und steuern. Die IS-Architektur unterstützt zwei Typen von Call Center-Prozessen: Ein Inbound-Prozess startet durch den Anruf eines externen Kommunikationspartners. Dieser Anruf kann durch eine Interactive Voice Recognition-Anlage (IVR) entgegengenommen werden. Die Konfiguration einer IVR fällt in den Aufgabenbereich des Leitstandes, der unter anderem festzulegen hat, welche Anruftypen durch die IVR automatisiert zu bearbeiten sind. Eine IVR kann auf gesprochene Anweisungen der Kommunikationspartner reagieren, weil sie über die technische Fähigkeit zur Spracherkennung verfügt. 244 Hieraus resultiert die Möglichkeit, dass der Anrufende selbstständig bestimmte Call CenterServices nutzt. Mithin ist eine IVR als Komponente zu betrachten, die je nach Anforderung wahlweise zum Bestandteil der IS-Architektur wird, nämlich ausschließlich dann, wenn sog. Customer Self Services angeboten werden sollen. Ein Beispiel für einen Selbstservice ist die Geldüberweisung. Bei diesem weitgehend automatisierten Prozess werden die vom Kommunikationspartner gesprochenen Informationen über Bankverbindungen und Geldbetrag von der IVR-Komponente der IS-Architektur interpretiert und anschließend in den operativen Datenbanken gespeichert. Bestimmte Call Center-Dienste setzen jedoch die aktive Beteiligung von Agenten voraus, u. a. die Beantwortung von Beschwerden. In diesem Fall involviert die IVR eine automatische Anrufverteilungsanlage (Automated Call Distributor, kurz: ACD). Agenten, die zur Prozessbearbeitung grundsätzlich bereitstehen, registrieren sich in der ACD. Ferner sind in dieser Anlage die Prozessfähigkeiten (sog. „Skills“) der Agenten hinterlegt, etwa die Fähigkeit zur Bearbeitung von Beschwerden oder die Fähigkeit zur Teilnahme an Telemarketing-Kampagnen. Außerdem wird in der ACD der Agentenstatus kontinuierlich gemessen. Abhängig vom Status (z. B. „bereit zur Rufannahme“, „im Gespräch befindlich“, „ist zur Beschwerdebearbeitung befähigt“) wählt die ACD einen Agenten zur Rufbeantwortung aus. Stellt sich im Gespräch mit dem externen Kommunikationspartner heraus, dass bestimmte weitere Skills benötigt werden, über die der ausgewählte Agent nicht verfügt, so kann dieser den Anruf im Anschluss an eine zuvor in der ACD erfasste Skillverfeinerung zurückdelegieren. Darauf hin wählt die ACD einen anderen Agenten aus, der dem Skillbedarf genügt. Sofern Sollzustände – etwa bezüglich der durchschnittlich tolerierten Wartezeit – nicht erreicht werden, können die Mitarbeiter des Leitstandes eingreifen, indem diese bspw. die in der ACD hinterlegten Skills verändern. So können für Agenten, die grundsätzlich Inbound-Anrufe zu bearbeiten haben, kurzfristig in Spitzenlastzeiten Skills „freigeschaltet“ werden, um Outbound-Anrufe beantworten zu können. Der zweite grundlegende Typ eines Call Center-Prozesses ist wie erwähnt der des OutboundAnrufes. Zur Vorbereitung von Outbound-Prozessen werden ausgehend von Informationen aus den Transaktionssystemen – bspw. Informationen über das Netto-Vermögen eines Bankkunden – Telefonnummernlisten zusammengestellt. Diese können die Rufnummern derjenigen Kunden enthalten, die eine kritische Vermögensschwelle überschreiten und deshalb in den Fokus einer Kampagne zur Bewerbung eines bestimmten Vermögensanlageproduktes rücken. Solche Rufnummernlisten können im Data Warehouse (kurz: DWH) eines Call Centers abgelegt werden. Von dort werden sie an den sog. Dialer, also der Outbound-Telefonanlage, transferiert. Der Dialer verfügt zudem über Informationen über die angemeldeten Agenten, deren Skills und Stati. Aus diesen Informationen ist die zur Durchführung von Outbound-Anrufen verfügbare Agenten-Kapazität bestimmbar. Entsprechend der durchschnittlichen Gesprächszeit je Outbound-Anruf sowie der Erfolgswahrscheinlichkeit für die Herstellung einer Verbindung ermittelt der Dialer selbstständig diejenige Menge an Anrufen, die pro Zeiteinheit zu wählen sind. Wird durch den Dialer eine Verbindung erfolgreich hergestellt, dann wählt anschließend die ACD hierfür einen Agenten zur Prozessbearbeitung aus. Zur Bearbeitung des Vorgangs leistet der Agent im Regelfall Eingaben in ein Transaktionssystem (vgl. Abbildung 1). So kann dieser auf den im CRM-System hinterlegten Kalender zugreifen, um einen Beratungstermin in einer Bankfiliale zu vereinbaren. IVR und Dialer verfügen über unterschiedliche technische Fertigkeiten und unterschiedliche Geschäftsregelbestände (sog. business rules). So interpretiert die IVR im Gegensatz zum Dialer gesprochene Informationen, etwa die Höhe kommunizierter Geldbeträge. Demgegenüber erkennt der Dialer automatisch den Status des externen Kommunikationspartners. Aus diesem Grund kann der Dialer auf die „Kommunikation“ mit einem Anrufbeantworter durch Rufabbruch oder Weiterleitung an einen Agenten zum Hinterlegen einer Sprachnachricht reagieren. Falls sich eine Rufnummer als 245 nicht erreichbar erweist, kann der Dialer den betreffenden Datensatz im DWH als fehlerhaft markieren, so dass der Datenfehler durch Maßnahmen des Datenqualitätsmanagements bereinigbar wird. Im Bankensektor wird ein Dialer u. a. zur Herstellung eines Kommunikationskanals für das Telemarketing (Produktvertrieb) und das Forderungsmanagement (Beitreibung rückständiger Forderungen) eingesetzt. Um nun das für den Entwurf eines Process Mining-Ansatzes für Call Center bereitstehende Informationspotenzial beschreiben zu können, soll eine Variante des Inbound-Prozesses eingehender beleuchtet werden. Dazu liefert Abbildung 2 eine Darstellung des Prozesses in der Variante „mit Agentenbeteiligung“. Der Prozess wird auf der Ebene real ausgeführter Instanzen dargestellt, d. h. die Abbildung zeigt die Bearbeitung bzw. Nicht-Bearbeitung einzelner Anrufe – in Abbildung 2 visualisiert als Kästchen mit Identifikationsnummer: Phase 1: Anruf Call Center-Externe Phase 2: Warteschlange ACD # 501 # 499 # 502 # 500 ... ... Phase 3: Telefonat mit Agenten Service/Vertrieb # 496 Service/Vertrieb # 497 Verlorene Anrufe Service/Vertrieb # 498 # 40 # 65 Service/Vertrieb ... ... Abbildung 2: Prozessvariante „Inbound mit Agentenbeteiligung“ Abhängig von der Anzahl verwendeter Telefonleitungen kann bereits der Einstieg in die IVR mit einer Wartezeit verbunden sein. Deshalb ist in der ersten Phase eines Anrufs durch externe Kommunikationspartner ggf. ein Wartezustand zu verzeichnen. Darüber hinaus kann abhängig von der Kapazität der ACD die Übergabe des Anrufs an diese Telefonanlage Wartezeiten implizieren. Ebenso ist abhängig von der verfügbaren Agentenkapazität und dem Status der verfügbaren Agenten eine Wartezeit in der zweiten Phase möglich. Je nach Toleranz der Kommunikationspartner kann es als Konsequenz in den ersten beiden Phasen zu Abbrüchen der Kommunikationsversuche kommen. Die Daten hierüber schlagen sich in der typischen Kennzahl Anzahl verlorene Anrufe nieder. Diese Kennzahl wiederum geht zusammen mit Informationen über die Anzahl eingehender Anrufe ein in die Kennzahl Anteil verlorener Anrufe. In der dritten Phase findet Kommunikation zwischen Anrufer und einem oder mehreren Agenten statt. In den damit einhergehenden Service- und Vertriebsprozessen werden Daten über den Prozessverlauf (z. B. beteiligte Agenten, erforderliche Weiterleitungen) und das Prozessergebnis, etwa über die Höhe des erzielten Umsatzes oder das Anliegen und dem Lösungsbeitrag des Agenten generiert. Diese Daten werden Transaktionssystemen und/oder dem DWH des Call Centers bereitgestellt, um letztlich in Form von Kennzahlen zur Steuerung der Call Center-Prozesse eingesetzt werden zu können. Auf Abweichungen bezüglich Kennzahlen-Sollniveaus reagieren entweder Leitstand oder dezentrale Einheiten („Selbststeuerung“). Beispielsweise kann auf überlange Prozessbe246 arbeitungszeiten in Form einer Online-Unterweisung (sog. „Click to Coach“) oder auf ungenutzte Kapazitäten durch Aktivierung eines Web Based Trainings zur Erlangung weiterer Skills reagiert werden. Die skizzierten Datenbestände und Kennzahlen, welche in Call Centern genutzt und/oder erzeugt werden, können in ein Process Mining einbezogen werden. Hiermit wird das Ziel verfolgt, den Leitstand mit prozessbezogenen Steuerungsinformationen zu versorgen, die über das Informationspotenzial der skizzierten klassischen Call Center-Kennzahlen hinausweisen können. Aus Sicht der Steuerung sind dabei Informationen relevant, die Auskunft über die Prozesseffektivität und effizienz geben. Die Effektivität spiegelt sich im Erfüllungsgrad des sachlichen Prozesszieles (bspw. Beantwortung einer Kundenfrage innerhalb eines definierten Zeitkorridors) wider. Mit der Prozesseffizienz wird die Wirtschaftlichkeit der Prozessdurchführung adressiert. Kapitel 3 thematisiert nun vor dem Hintergrund einer Prozesssteuerung in Call Centern das Konzept des Process Minings, dessen Grundlagen zunächst zu erörtern sind. 3. Process Mining für Call Center 3.1. Grundlagen Zur Analyse großvolumiger betrieblicher Datenbestände wird seit den neunziger Jahren das Data Mining-Konzept thematisiert, das Ansätze der Statistik, der Künstlichen Intelligenz, der Datenbankforschung und der grafischen Datenverarbeitung vereinigt. Die Durchführung von Data Mining erfolgt im Rahmen eines standardisierten Prozesses, der auch analysevorbereitende Schritte wie die Selektion und Extraktion von Datenbeständen aus operativen Vorsystemen und deren Bereinigung und Transformation umfasst. [2] Sie erfolgt mit dem Ziel, in einem Datenbestand Muster zu entdecken. Ein Muster stellt eine zusammenfassende, nicht-triviale, explizite Aussage über eine Untermenge der untersuchten Datenbasis dar, die der Generierung oder Prüfung von Hypothesen dient. DT 100 100,00% Expertise Hoch Niedrig DT 56 129 39,47% ZV-Prozess effektiv 60,53% Sozialstatus Angestellte Beamte Rentner DT 176 31,58% Zeit 70 15,79% ZV-Prozess effektiv 84 13,16% ZV-Prozess effektiv Monatsanfang Monatsende 121 18,42% ZV-Prozess effektiv 253 13,16% ZV-Prozess ineffektiv Abbildung 3: Phasenstruktur des Process Minings Unter Process Mining werden in der Literatur vornehmlich solche Ansätze diskutiert, die eine Analyse von Prozessdatenbeständen mit der Zielsetzung betreiben, generalisierte Prozessmodelle zu 247 generieren. [1] Diese Ansätze fokussieren die Analyse der Protokolldateien von WorkflowManagement-Systemen (kurz: WFMS), aus denen Daten über historische Prozessinstanzen hervorgehen. Diese Protokolldateien liefern eine empirische Basis zur Erzeugung von Istprozessmodellen, aus denen durch Vergleich mit Sollprozessmodellen Anhaltspunkte für die Prozessverbesserung hervorgehen können. Auf diese Weise werden zwar Ablaufschemata für Prozesse erzeugt, allerdings steht hierbei nicht die Fragestellung nach Einflussfaktoren für die Prozesseffektivität und effizienz im Analysemittelpunkt, deren Beantwortung nahezu zwangsläufig eine Integration weiterer Datenbestände erforderlich macht. Folglich wird hier eine weite Auffassung des Process Minings zugrunde gelegt, unter der generell die Anwendung von Methoden des Data Minings auf prozessbezogene Datenbestände zu verstehen ist. Aufbauend auf dieser Begriffsbestimmung ist der Fragestellung nachzugehen, welche generellen Datenkategorien als Grundlage für das Process Mining herangezogen werden können. Notwendig ist zunächst die Identifikation von Prozessinstanzen als historische Prozessvollzüge, die bspw. durch WFMS-Protokolle dokumentiert werden können. Diese können um Merkmale des konkreten Prozessobjekts (z. B. Kunde, Produkt) angereichert werden, das den Arbeitsgegenstand bildet und auf das im Rahmen der Prozessinstanz eingewirkt wird. Die Resultate der prozessspezifischen Vollzüge führen zum Prozessergebnis, das durch Bezug zu den Prozesszielen eine Bewertung der Prozessinstanz gestattet. Als weitere Datenkategorien sind der Prozessträger, die Prozessmittel sowie der Prozesskontext zu fixieren: − Als Prozessträger sind diejenigen personellen oder maschinellen Ressourcen der betrieblichen Aufbauorganisation zu erfassen, die als aktive Elemente die Ausführung der prozessrelevanten Vorgänge leisten (z. B. Call Center-Agenten). − Prozessmittel sind diejenigen materiellen oder immateriellen Ressourcen, die von den Prozessträgern zur Prozessausführung genutzt werden (z. B. IVR und ACD). − Der Prozesskontext umfasst räumliche und zeitliche Faktoren der Prozessausführung, die gemeinsam die situativen Ausführungsbedingungen der Prozessinstanz konstituieren. Neben WFMS sind zu den potenziellen Datenlieferanten des Process Minings diejenigen Komponenten der betrieblichen Anwendungsarchitektur zu zählen, die zur Abwicklung betrieblicher Prozesse eingesetzt werden (z. B. ERP-Systeme, IVR und ACD). Weitere Datenquellen für das Process Mining sind dispositive Datenbestände, in denen prozessbezogene Daten in aufbereiteter Form vorgehalten werden. Hierzu gehören insbesondere DWH-Systeme. Eine Analyse dieser prozessbezogenen Daten setzt Aktivitäten zur Datenextraktion aus den operativen oder dispositiven Systemen sowie deren Zusammenführung in einem analysefähigen Datenbestand – z. B. in Form einer Universalrelation oder eines Sternschemas – voraus. [7] Um die Umsetzbarkeit des Process Minings in der Call Center-Praxis sicherzustellen, sind Methoden zweckmäßig, deren Ergebnisse für den Anwender leicht interpretierbar sind und daher in die Entscheidungen zur Steuerung von Prozessen einfließen können. Eine Verfahrensklasse, die diese Anforderungen erfüllt, sind Entscheidungsbaumverfahren, die als maschinelle Lernverfahren seit den achtziger Jahren im Forschungsfeld der Künstlichen Intelligenz (KI) thematisiert werden. [6] Auf Grundlage eines Bestands vorklassifizierter Objekte generieren Entscheidungsbaumverfahren Klassifikationsmodelle, die die Eigenschaften der formulierten Klassen beschreiben. Neben der Beschreibung diskriminierender Klassenmerkmale können Klassifikationsmodelle auch eingesetzt werden, um die Klassenzugehörigkeit neuer Objekte zu prognostizieren. Hierbei kann es sich um Prozessinstanzen handeln, die anhand ihrer voraussichtlichen Zielerfüllungsgrade klassifiziert wer248 den. Da sich Entscheidungsbaumverfahren durch relativ kurze Trainingszeiten und hohe Verständlichkeit der resultierenden Ergebnisse auszeichnen, genießen diese Verfahren eine hohe Akzeptanz. Sie gehören zum methodischen Arsenal zahlreicher Data Mining-Systeme. Die Anwendung von Entscheidungsbaumverfahren für die Call Center-Steuerung wird im Folgenden anhand eines Fallbeispiels konkretisiert. Dieses Fallbeispiel thematisiert den Prozess des Forderungsmanagements, der ein Primärprozess von Call Centern in Bankbetrieben ist. 3.2. Fallbeispiel: Entscheidungsbaumverfahren im Forderungsmanagement Der Kernaspekt des Forderungsmanagements von Finanzdienstleistern besteht in der Einholung und Überwachung von Zahlungsversprechen säumiger Kunden. Die Generierung von Zahlungsversprechen (kurz: ZV) erfolgt durch die Call Center-Agenten. Im Laufe dieses spezifischen OutboundProzesses (kurz: ZV-Prozess) werden säumige Kunden gezielt angesprochen und zur Abgabe eines ZV motiviert. Unter einem ZV wird dabei die einseitige Zusage zur Zahlung eines bestimmten Geldbetrags zu einem explizit definierten Zahlungstermin verstanden, sodass ZV eine monetäre und eine zeitliche Zieldimension aufweisen. Im Rahmen eines Process Mining-Projekts bei einem Finanzdienstleister wurden ZV-Prozesse im Umfeld des Privatkundenkreditgeschäfts untersucht. Motiviert wurde dieses Projekt durch den Sachverhalt, dass ZV-Prozesse einerseits erhebliche personelle Ressourcen binden und somit kostenintensiv sind, gleichzeitig detaillierte Daten über die Prozessinstanzen aufgezeichnet werden. Die ZV-Prozesse sind auf Bestandskunden gerichtet (Prozessobjekt), über die im Laufe der Kundenbeziehung zahlreiche Daten – wie z. B. Vertrags- und Kontakthistorien – gesammelt werden. Die Projektzielsetzung lag in der Aufdeckung von Faktoren zur Bestimmung der Effektivität der ZV-Prozesse. Ein ZV-Prozess ist dann als effektiv zu bezeichnen, wenn ein Zahlungsversprechen von einem Kunden eingeholt werden kann und von diesem auch tatsächlich eingehalten wird. Zur Dokumentation historischer ZV-Prozesse standen umfassende Datenbestände zur Verfügung, deren Eigenschaften zu erörtern sind. Relevante ZV-Prozessdaten werden in unterschiedlichen Frontend- und Backend-Systemen verwaltet. Die Einholung von ZV erfolgt primär auf telefonischem Wege durch das Call Center, in dem für säumige Kreditverträge entsprechende Kampagnen mehrstufig ausgeführt werden. Die Softwaresysteme des Call Centers zeichnen elementare Kommunikationsereignisse auf, sodass eine hochauflösende Beschreibung der gesamten Kommunikationshistorie auf Kundenebene möglich ist. Parallel hierzu erfolgt eine Dokumentation der eingeholten ZV in Anwendungssystemen zum Kreditmanagement, in dem auch die kundenspezifischen Zahlungseingänge aufgezeichnet werden (Prozessergebnis). Darüber hinaus konnten aus den Vertriebsdatenbanken die Vertragshistorien der Kunden sowie Kundenstammdaten extrahiert werden. Diese Datenbestände standen allerdings nur teilweise über ein zentrales DWH zur Verfügung. Also ergab sich die Notwendigkeit zur technischen und fachlichen Integration der Datenbestände. Im Rahmen der Datenvorbereitung wurden die folgenden Kategorien von Prozessattributen abgeleitet und zusammengeführt: − Daten über kommunikative Prozesse, mit denen die Outbound-Calls des Call Centers dokumentiert werden. Hierzu gehören z. B. der Startzeitpunkt, die Gesprächsdauer und das Resultat von Outbound-Calls (Statuscodes). 249 − Kundenstammdaten mit soziodemographischen Angaben, wie z. B. Geschlecht, Wohnort, Alter, Sozialstatus, Haushaltseinkommen, sowie Vertragsdaten über erworbene Finanzprodukte, aus denen auch die Vertragshistorie generiert werden kann. − Anonymisierte Daten über die involvierten Call Center-Agenten als personelle Prozessträger. Zu diesen Daten ist auch die zeitliche Zugehörigkeit zum Call Center (Tätigkeitsalter) zu zählen, die einen Indikator für die aufgabenbezogene Expertise des Agenten bildet. − Daten über den Betrag, die zeitliche Terminierung und die tatsächliche Einhaltung eines ZV. Ein ZV gilt dann als gehalten, wenn der vereinbarte Betrag innerhalb der vorgegebenen Frist tatsächlich bezahlt wird. Ein gebrochenes ZV liegt hingegen dann vor, wenn ein geringerer Betrag und/oder nicht termingetreu bezahlt wird. Auf Grundlage dieser Sachverhalte wurde die Effektivität der historischen ZV-Prozessinstanzen als binärskaliertes Merkmal abgeleitet. DT 100 100,00% Expertise Hoch Niedrig DT 56 129 39,47% ZV-Prozess effektiv 60,53% Sozialstatus Angestellte Beamte Rentner DT 176 31,58% 70 Zeit 15,79% ZV-Prozess effektiv 84 13,16% ZV-Prozess effektiv Monatsanfang Monatsende 121 18,42% ZV-Prozess effektiv Blatt 253 13,16% ZV-Prozess ineffektiv Legende relativer Anteil der Prozessinstanzen des Blatts an sämtlichen untersuchten Instanzen Klassenzugehörigkeit der Prozessinstanz Knoten relativer Anteil der Prozessinstanzen des Knotens trennendes Merkmal Merkmalsausprägungen Grau schattierte Bereiche reflektieren den relativen Anteil ineffektiver Prozessinstanzen im Blatt/Knoten. Abbildung 4: Exemplarischer Entscheidungsbaum Das Ergebnis dieser Datenintegration führte zu einem Bestand mit mehreren hundert Prozessattributen für jedes ZV, die mehrheitlich aus den Merkmalen der Kundenstammdaten resultierten. Dieser Bestand wurde zunächst mithilfe traditioneller statistischer Methoden zur Vorselektion unabhängiger Variablen untersucht. Zur Veranschaulichung der hiermit gewonnenen Ergebnisse wird in Abbildung 4 ein einfaches Beispiel dargestellt. 250 Zur Interpretation ist zunächst die generelle Struktur von Entscheidungsbäumen zu erläutern. Entscheidungsbaumverfahren legen zur Wissensrepräsentation eine Baumstruktur zugrunde, die formal aus Knoten und Kanten besteht. [5] Der Ausgangsknoten des Entscheidungsbaums ist der Wurzelknoten, während die Endknoten als Blätter bezeichnet werden. Jedes Blatt repräsentiert eine Klassifizierung für eine Teilmenge der analysierten Objekte (hier: Prozessinstanzen). Die Wurzel und die inneren Knoten des Baums repräsentieren hingegen Tests für die einzelnen Attribute der zugrunde liegenden Analyseobjekte. Der Weg von der Wurzel bis zu einem bestimmten Blatt wird als Ast bezeichnet. Beim Aufbau des Entscheidungsbaums wird anhand eines festzulegenden Auswahlmaßes schrittweise untersucht, welches Attribut den höchsten Informationsgehalt zur möglichst homogenen Aufteilung der Objektmenge hinsichtlich der Zielvariablen (Klassenzugehörigkeit) aufweist. [3] Diese Attribute werden zur Partitionierung der Objekte herangezogen und in dem Knoten des Entscheidungsbaums abgebildet. In dem beispielhaft dargestellten Entscheidungsbaum wird die Effektivität historischer ZV-Prozesse in Abhängigkeit von der Expertise – operationalisiert als Tätigkeitsalter der Agenten –, dem Sozialstatus des externen Kommunikationspartners (hier: säumiger Kreditnehmer) und der Zeit der Prozessausführung beeinflusst. Diese Prozessattribute und deren unterschiedlichen Ausprägungen werden in dem kastenförmig dargestellten Knoten des Entscheidungsbaums hinterlegt und zur Aufteilung der ZV-Prozessinstanzen herangezogen. Als Attribut mit dem höchsten diskriminatorischen Potenzial wurde vom Data Mining-Werkzeug die Expertise des Agenten erkannt, die in diesem vereinfachten Beispiel als binärskaliertes Merkmal die Ausprägungen hoch oder niedrig annehmen kann und im Wurzelknoten hinterlegt ist. Der grau schattierte Bereich des Wurzelknotens verdeutlicht den Anteil der ineffektiven ZV-Prozessinstanzen an sämtlichen untersuchten Instanzen (im Beispiel ca. 20%). Durch die Initialentscheidung erfolgt eine Partitionierung der untersuchten Prozessinstanzen anhand der Expertise des Agenten. Der linke Ast des Wurzelknotens, der mit hoher Expertise bearbeitete ZV-Prozessinstanzen repräsentiert, führt zu einem rautenförmig dargestellten Blatt (Blatt 1). In diesem Blatt beträgt der Anteil ineffektiver Prozessinstanzen nunmehr lediglich ca. 10 %. Hiermit werden bereits 39,47 % aller Prozessinstanzen klassifiziert. Aus fachlicher Perspektive kann hieraus die Schlussfolgerung gezogen werden, dass das Tätigkeitsalter des Agenten ein wesentlicher Erfolgsfaktor ist und daher bei der Prozessgestaltung berücksichtigt werden sollte. Der rechte Ast des Wurzelknotens führt hingegen zum Segment derjenigen Prozessinstanzen, die sich durch geringe Expertise der Agenten auszeichnen. Innerhalb dieses Astes erfolgt zunächst eine Partitionierung anhand des Sozialstatus des Kunden, wobei zwischen Angestellten, Beamten und Rentnern unterschieden wird. In diesem Knoten (innerer Knoten 1) ist ein deutlich erhöhter Anteil ineffektiver ZV-Prozessinstanzen in Höhe von ca. 30 % erkennbar. Das Segment derjenigen Kunden, die den Sozialstatus Angestellter aufweisen, wird auf der nächsten Ebene anhand der Variable Zeit ausdifferenziert (innerer Knoten 2). Diesem Knoten ist zu entnehmen, dass der Anteil ineffektiver Prozessinstanzen ca. 40 % beträgt, wobei nahezu ein Drittel sämtlicher Prozessinstanzen (31,58 %) von diesem Knoten beschrieben wird. Dieser Knoten verfügt über zwei Äste, von denen der rechtsseitige zu einem Blatt mit erheblichem Prozessoptimierungsbedarf führt. So ist die Mehrheit – etwa 60 % – der ZV-Prozessinstanzen aus Blatt 3 ineffektiv, wobei dieser Sachverhalt durch die Klassenzugehörigkeit des Blatts zum Ausdruck gebracht wird. Aus fachlicher Perspektive wird anhand dieser Prozessattribute eine Menge von ZV-Prozessinstanzen beschrieben, die mehrheitlich nicht zur Erreichung des prozessbezogenen Ziels führen und somit Anomalien aufweisen. Zur Verbesserung des ZV-Prozesses sind hieraus Handlungsempfehlungen ableitbar. Eine generelle Möglichkeit zur Steuerung der Prozessleistungsfähigkeit im Sinne einer Verbesserungsmaßnahme besteht in der Steigerung der Expertise von Call CenterAgenten durch Maßnahmen der Personalentwicklung. In diesem Zusammenhang können Instru251 mente des E-Learnings eingesetzt werden, mit denen Best-Practice-Beispiele aufbereitet und als Learning-on-Demand-Einheiten vermittelt werden. Auf diese Weise können Zeiträume, die sich durch geringe Kontaktaufkommen auszeichnen, zur Weiterbildung genutzt werden. Eine weitere Möglichkeit besteht in der systematischen Aufbereitung der aufgedeckten Zusammenhänge für Zwecke der zumindest teilweise automatisierten Prozesssteuerung (bspw. durch Hinterlegung als Geschäftsregel in einer ACD). Beim Prozessbeginn ist zu analysieren, ob die per Entscheidungsbaumverfahren ermittelten Bedingungen einer ineffektiven Prozessausführung erfüllt sind. Steht aufgrund der situativen Ausprägungen der Prozessattribute eine ineffektive Prozessausführung zu erwarten, sind Verfahrensweisen zur Modifikation des Prozessablaufs notwendig. Dies kann in Form eines manuellen Eingriffs durch den Call Center-Leitstand oder aber automatisiert durch Elemente der IS-Architektur erfolgen, die Prozesse auf die Einhaltung von Regeln überwachen können (z. B. ACD). Exemplarische Prozesskonfigurationshandlungen zur Vermeidung von Prozessineffektivität bestehen in der zeitlichen Verlagerung der Prozessausführung oder in der Zuweisung eines Anrufs auf erfahrene Mitarbeiter. 4. Ergebnis Mithilfe des Process Minings können Einblicke in die Effektivität und Effizienz von Call CenterProzessen gewonnen werden. Dieses kann eine Informationsgrundlage für den Call CenterLeitstand liefern, um Prozessschwachstellen systematisch abbauen und auf eine kontinuierliche Verbesserung der Prozesse hinzuwirken. Allerdings gehen mit Entscheidungsbäumen Problemfelder einher, die für die praktische Implementierung einer regelbasierten Prozesssteuerung von Bedeutung sind. So verfügen beispielsweise Entscheidungsbäume mit hoher prognostischer Validität in praxi über eine deutlich höhere Komplexität als in dem hier skizzierten Fallbeispiel. Eine umfassende Interpretation dieser Bäume zur Plausibilitätsprüfung ist zwar möglich, stellt jedoch eine anspruchsvolle Tätigkeit dar, die teils erhebliche Analysekosten zur Folge haben kann. 5. Literaturhinweise [1] ALVES DE MEDEIROS, A. K., Genetic Process Mining, Dissertation der Technischen Universiteit Eindhoven, Eindhoven, Niederlande 2006. [2] BENSBERG, F., Web Log Mining als Instrument der Marketingforschung – Ein systemgestaltender Ansatz für internetbasierte Märkte. Gabler, Wiesbaden 2001. [3] BORGELT, C., KRUSE, R., Attributauswahlmaße für die Induktion von Entscheidungsbäumen: Ein Überblick, in: Data Mining – Theoretische Aspekte und Anwendungen, Hrsg.: G. Nakhaeizadeh, Heidelberg 1998. [4] BREIMANN, L., FRIEDMAN, J., OLSHEN, R., STONE, C.: Classification and Regression Trees. Wadsworth and Brooks, Belmont (USA) 1984. [5] ESTER, M., SANDER, J., Knowledge Discovery in Databases – Techniken und Anwendungen. Springer, Berlin et al. 2000. [6] QUINLAN, J. R.: C4.5: Programs for Machine Learning, San Mateo (USA) 1993. [7] WANG, X. Z., Data Mining and Knowledge Discovery for Process Monitoring and Control, London et al. 1999. 252 WERTORIENTIERTES PROZESSMANAGEMENT: STATE-OF-THE-ART UND ZUKÜNFTIGER FORSCHUNGSBEDARF Jan vom Brocke, Christian Sonnenberg, Alexander Simons1 Kurzfassung Prozessmanagement zielt auf die Steigerung der Effektivität und Effizienz von Unternehmensprozessen. Eine explizit am Wert ausgerichtete Konzeption zum Prozessmanagement ist bis heute jedoch noch nicht entwickelt worden. Bisherige Methoden beschränken sich überwiegend auf die fachliche oder technische Gestaltung von Prozessen – Entscheidungen werden zumeist durch qualitative Kriterien oder Plausibilitätsüberlegungen begründet. Die wertmäßigen Konsequenzen der Entscheidungen werden jedoch nicht systematisch erfasst. Mit diesem Beitrag begründen wir die Notwendigkeit eines „wertorientierten Prozessmanagements“. Auf Basis der Koalitionstheorie werden spezifische Anforderungen an eine Wertorientierung im Prozessmanagement identifiziert. Sie werden verwendet, um bisherige Konzeptionen zum Prozessmanagement zu untersuchen und den Forschungsbedarf für ein wertorientiertes Prozessmanagement aufzuzeigen. 1. Einleitung Der hohe Stellenwert der „Wertorientierung“ ist heute wohl unbestritten [7, 25]. Strittig ist allerdings noch immer die Messung – sowie bereits die Bedeutung – von unternehmerischem „Wert“: Verschiedene Konzepte, wie der Shareholder- oder Stakeholder-Ansatz, und zahlreiche Messgrößen, wie der Economic Value Added (EVA), der Discounted Cash Flow (DCF) oder der Total Return to Shareholders (TRS), wurden in den vergangenen Jahren in unterschiedlichsten Disziplinen teils kontrovers diskutiert [9, 21]. Im Prozessmanagement hingegen wird der Wert von Gestaltungsalternativen bislang jedoch noch unzureichend thematisiert [28]. Dies ist erstaunlich, da der Begriff „Geschäftsprozess“ nach HAMMER/CHAMPY einerseits eine explizite Ausrichtung am Kundenwert vorsieht [18]. Andererseits stellt der Begriff „Management“ per definitionem auf den Wertbeitrag unternehmerischer Entscheidungen ab [1]. Bisherige Methoden im Prozessmanagement begründen Gestaltungsentscheidungen aber mit eher qualitativen oder rein sachlichen Erwägungen, ohne die mit einer spezifischen Gestaltungsalternative einhergehenden, wertmäßigen Konsequenzen zu explizieren [29]. Bei einer Vielzahl an Gestaltungsalternativen ist es daher kaum möglich, ihre Vorteilhaftigkeit intersubjektiv nachvollziehbar zu beurteilen [23, 27]. Ein Beispiel sind Prozessgestaltungen bei Serviceorientierten Architekturen (SOA). Technisch ist es hier möglich, je Funktion eines Prozesses alternative Services zu beziehen. Jedoch ist es fraglich, welche Konfiguration eines Serviceportfolios in einer spezifischen Anwendungssituation vorteilhaft ist 1 Martin Hilti Chair of Business Process Management, University of Liechtenstein 253 [27]. Notwendig erscheint also eine Erweiterung des Prozessmanagements um Methoden, die eine am Wert ausgerichtete Entscheidungsunterstützung ermöglichen. In Vorarbeiten sind bereits methodische Anpassungen zur monetären Bewertung vorgeschlagen worden [17]. Damit wird jedoch nur einem Teilgebiet einer umfassenderen Konzeption zu einem „wertorientierten Prozessmanagement“ Rechnung getragen. In diesem Beitrag wird eine solche Konzeption begründet. Eine Analyse des State-of-the-Art im Prozessmanagement in Bezug auf die Wertorientierung bildet die Grundlage zur Explikation des zukünftigen Forschungsbedarfs für die Konzeption eines wertorientierten Prozessmanagements. Zur systematischen Untersuchung bestehender Ansätze wird die Koalitionstheorie [11] genutzt. Arbeiten zur Koalitionstheorie zeigen, dass der einem Objekt beigemessene Wert für unterschiedliche Stakeholder durchaus variieren kann. Während Kunden beispielsweise Liefertreue und Beratungsqualität als wertstiftend empfinden, sind für Mitarbeiter eher Arbeitsbedingungen, Prestige oder Leistungsentgelte entscheidend. Die Gestaltung und Bewertung von Geschäftsprozessen hat sich also an verschiedenen Interessengruppen zu orientieren. Neben der Abstimmung unterschiedlicher Zielsysteme ist ein wertorientiertes Prozessmanagement aber auch multiperiodisch auszugestalten, um die langfristigen wertmäßigen Konsequenzen von Entscheidungen abbilden zu können. Schließlich sind eigenständige Messgrößen bereit zu stellen, die den Wertbeitrag einzelner Entscheidungen im Prozessmanagement dokumentieren. Der Beitrag ist wie folgt strukturiert: In Abschnitt 2 wird das zugrunde gelegte Forschungsdesign, das Review, skizziert. Anschließend werden wesentliche Aussagen der Koalitionstheorie zusammengefasst, um auf dieser Grundlage Anforderungen an ein wertorientiertes Prozessmanagement zu identifizieren (Abschnitt 3). Diese werden in Abschnitt 4 zur Evaluation bestehender Arbeiten zum Prozessmanagement im Hinblick auf ihre Wertorientierung verwendet. Ziel ist es, Integrations- und Erweiterungsbedarfe bestehender Prozessmanagementkonzeptionen für ein umfassendes wertorientiertes Prozessmanagement aufzuzeigen. Der hierzu erforderliche Forschungsbedarf wird in Abschnitt 5 beschrieben. Der Beitrag schließt mit einer Zusammenfassung und Diskussion der Ergebnisse (Abschnitt 6). 2. Forschungsdesign Grundlage der vorliegenden Untersuchung bilden Methoden der Reviewforschung, die zur Erstellung eines State-of-the-Art-Beitrags verwendet werden können [13]. In Anlehnung an FETTKE wird unter einem Review eine prozessorientierte Forschungsmethode verstanden, die sich in Problemformulierung, Literaturrecherche und -auswertung, Analyse und Interpretation sowie Präsentation unterteilt [8]. Zu positionieren ist ein Review hinsichtlich Ziel und Zielgruppe, Fokus, Perspektive, Struktur, Typ, Literaturauswahl und -umfang sowie dem Grad, zu dem der zukünftige Forschungsbedarf expliziert wird (vgl. Abbildung 1). Ziel (1) des vorliegenden Reviews ist einerseits die Darstellung der zentralen Inhalte bestehender Ansätze im Geschäftsprozessmanagement und andererseits ihre kritische Analyse in Bezug auf ihre Wertorientierung. Der Fokus (2) des Reviews liegt auf den in der Literatur zum Geschäftsprozessmanagement dargestellten Forschungsergebnissen. Zugrunde gelegte Forschungsmethoden oder Erfahrungen der Autoren finden dagegen keinen Eingang in die Untersuchung. Die Analyse dieser Ergebnisse erfolgt auf Grundlage der Stakeholder-Theorie, die zur Identifikation von Anforderungen an ein wertorientiertes Prozessmanagement herangezogen wird. Auf Basis der identifizierten Anforderungen wird schließlich der zukünftige Forschungsbedarf (3) expliziert. Da die zugrunde gelegten Arbeiten in Bezug auf eine bestimmte Position – die Wertorientierung – analysiert werden, ist die Perspektive (4) des Reviews nicht neutral. Die Darstellung der Untersuchungsergebnisse erfolgt thematisch (5) und natürlich-sprachlich (6). Zielgruppe (7) des Reviews sind sowohl 254 Praktiker als auch Forscher der Wirtschaftsinformatik, insbesondere des Geschäftsprozessmanagements. Kritisch ist die Explikation der berücksichtigten Literatur (8). In diesem Beitrag werden ausgewählte deutschsprachige Schlüsselarbeiten zum Geschäftsprozessmanagement dargestellt und analysiert. Abbildung 1: Klassifikation des Reviews nach Fettke [14] Mit dem Review soll untersucht werden, inwiefern bisherige Arbeiten im Prozessmanagement eine Wertorientierung vorsehen. Als Analysekriterien sollen Anforderungen an ein wertorientiertes Prozessmanagement dienen, die im Folgenden entwickelt werden. 3. Anforderungen an ein wertorientiertes Prozessmanagement Als eine Grundlage für ein wertorientiertes Prozessmanagement kann die Koalitionstheorie der Organisationsgestaltung dienen (zum Prozess der Theorieauswahl vgl. insbesondere [16]). Unter dem Begriff der Koalitionstheorie werden Arbeiten der neuen Institutionenökonomie zusammenfasst, die das Phänomen der Bildung und des Erhalts von Koalitionen als freiwillige Zusammenschlüsse von Akteuren erklären sollen. Die Arbeiten basieren auf der von BARNARD (1938) und später von SIMON (1949) geprägten Anreiz-Beitrags-Theorie [6, 26]. Eine dezidierte Koalitionstheorie wird von CYERT/MARCH (1963) beschrieben [11]. Im Folgenden werden Grundzüge dieser Theorie dargestellt, soweit sie für eine systematische Entwicklung von Anforderungen an ein wertorientiertes Prozessmanagement dienlich sind. Koalitionen kommen zustande, da Akteure mit ihrer Beteiligung einen spezifischen Anreiz verfolgen (z. B. Problemlösung, Prestige, Leistungsentgelt) und gleichzeitig bereit sind, der Koalition hierzu einen Beitrag zu leisten, der wiederum für den Erhalt der Koalition nachgefragt wird (z. B. Konstruktionsleistung, Finanzleistung). Durch die Typisierung von Anreiz-Beitrags-Relationen werden sog. Anspruchsgruppen (Stakeholder) identifiziert. Zur Menge potenzieller Stakeholder im Sinne der Koalitionstheorie gehören nur diejenigen Anspruchsgruppen, die innerhalb und außerhalb der Organisation zur Leistungserstellung beitragen [14]. Exemplarische Stakeholder im unternehmerischen Kontext sind Kapitalgeber, Eigentümer, Manager, Mitarbeiter, Kunden und Lieferanten. Unter der Annahme rationalen Verhaltens nehmen Stakeholder nur dann bzw. nur so lange an der Koalition teil, wie sie die für einen selbst gesetzten Planungshorizont erwarteten Anreize (aus der Koalition) höher einschätzen als die von ihnen geleisteten Beiträge. Die geleisteten Beiträge sämtlicher Koalitionsteilnehmer dienen der Erreichung der übergeordneten Ziele der Organisation. Für den Erhalt der Koalition ist langfristig ein sog. Anreiz-Beitrags-Gleichgewicht zu gewährleisten. 255 Dieses Gleichgewicht ist gegeben, solange die von allen Koalitionspartnern erhaltenen Beiträge ausreichen, um die notwendigen Anreize zur Bindung der Partner setzen zu können. Die Koalitionstheorie kann genutzt werden, um Anforderungen an eine wertorientierte Prozessmanagementkonzeption zu identifizieren. Ersichtlich ist zunächst, dass der einem Bewertungsobjekt beigemessene Wert für unterschiedliche Stakeholder durchaus variiert. Während etwa Kunden Liefertreue oder Produktqualität als wertsteigernd einstufen, sind für Mitarbeiter beispielsweise Arbeitsbedingungen oder eindeutige Aufgabenzuordnungen entscheidend. Aus Sicht der Kapitalgeber zählt schließlich der finanzwirtschaftliche Wert, der durch die Rentabilität des eingesetzten Kapitals ausgedrückt wird. Die erste Anforderung (A1) an ein wertorientiertes Prozessmanagement lautet also: Stakeholderorientierung. Die Koalitionstheorie bringt aber auch zum Ausdruck, dass für den Erhalt der Koalition das AnreizBeitrags-Gleichgewicht für jeden einzelnen Stakeholder zu gewährleisten ist. Nach CYERT/MARCH sind die Zielsetzungen der verschiedenen Stakeholder jedoch häufig konfliktär, so dass ein Gleichgewicht regelmäßig nicht erzielt wird [11]. Als eine zweite Anforderung (A2) an ein wertorientiertes Prozessmanagement sind somit mehrdimensionale Zielsysteme zu nennen, die untereinander auszubalancieren sind. Die Mehrdimensionalität des Zielsystems bedeutet jedoch nicht, dass sämtliche Dimensionen etwa gleichberechtigt nebeneinander stünden. Vielmehr sind sowohl UrsacheWirkungs-Beziehungen zwischen den Dimensionen als auch Gewichtungsfaktoren zu berücksichtigen (vgl. auch [23]). Die Ausgestaltung der Beziehungen (ebenso wie die Identifikation relevanter Dimensionen) ist dabei unter Berücksichtigung der unternehmensindividuellen Kontextsituation vorzunehmen. Trotz der letztendlichen Individualität relevanter Zielsysteme für eine wertorientierte Prozessgestaltung können Grundstrukturen diskutiert werden, die eine mögliche Orientierung bei der weiteren Adaption bieten. Abbildung 2 liefert ein Beispiel für ein solches Zielsystem, das einige typische Elemente enthält. Die in Arbeiten zum Prozessmanagement häufig angeführten Kriterien Kosten, Qualität und Zeit [3] können also als Zieldimensionen gelten, die in direktem Zusammenhang mit der operativen Prozessausführung stehen. Zusätzlich zu den operativen Ergebnissen sind aber auch Potenziale der zukünftigen Prozessausführung zu analysieren, z. B. aus Sicht der Kapitalgeber (Finanzen) und Mitarbeiter (Wissen, Kultur). Abbildung 2: Beispielhaftes Zielsystem Die Koalitionstheorie zeigt jedoch auch, dass der Zeit- bzw. Planungshorizont unterschiedlicher Stakeholder ebenfalls variieren kann. Eine dritte Anforderung (A3) ist daher die Mehrperiodigkeit des Bewertungssystems. Gegenüber den operativen Ergebnissen der Prozessausführung ist also eine auch zeitlich weiterreichende (bzw. totale) Betrachtung anzustellen [28]. 256 Für ein wertorientiertes Prozessmanagement ist auch die Wahl des Bewertungsobjekts entscheidend. Hier sind zunächst Geschäftsprozesse, Aktivitäten, Ressourcenbeanspruchung (Input) und Prozessleistung (Output) zu berücksichtigen (Anforderung A4). Aber auch strategische und organisatorische Maßnahmen auf Ebene des Geschäftsprozessmanagements (z. B. zum Aufbau von Sozialkapital und Know-How sowie zur Etablierung einer Prozessgovernance und -kultur) sowie Infrastrukturen (z. B. Software und Hardware) sind hier entscheidend (Anforderung A5). Zusammengefasst ergeben sich somit die folgenden Grundanforderungen: A1: Stakeholderorientierung, A2: Mehrdimensionalität des Zielsystems, A3: Mehrperiodigkeit des Bewertungssystems, A4: Prozessbezogenheit der Bewertungsobjekte und A5: Einbeziehung von Maßnahmen der Prozessgestaltung. Die beschriebenen Anforderungen stehen keinesfalls isoliert nebeneinander, sondern sind integriert zu berücksichtigen, um das Prozessmanagement um eine wertorientierte Perspektive zu ergänzen. Im folgenden Abschnitt werden bestehende Ansätze im Geschäftsprozessmanagement hinsichtlich dieser Anforderungen evaluiert. 4. Wertorientierung im Geschäftsprozessmanagement In der Literatur finden sich Arbeiten zum Management und Controlling von Prozessen, die im Hinblick auf ihren Beitrag zu einem wertorientierten Prozessmanagement zu untersuchen sind. Unter „Prozessmanagement“ wird hier ein Arbeitsgebiet verstanden, das die Planung, Durchsetzung und Kontrolle von Unternehmensprozessen zum Gegenstand hat [2, 3, 5]. Im „Prozesscontrolling“ werden Methoden zur Beurteilung der Wirtschaftlichkeit von Prozessen entwickelt [3, 20]. Der Stand auf dem Gebiet des wertorientierten Prozessmanagements soll im Folgenden anhand ausgewählter Schlüsselarbeiten veranschaulicht werden (vgl. Abbildung 3). Abbildung 3: Wertorientierung ausgewählter Konzepte im Geschäftsprozessmanagement Ein Beispiel für eine „kennzahlenbasierte Prozessanalyse“ gibt AICHELE [1]. Entwickelt wird ein Kennzahlensystem zur Geschäftsprozessoptimierung produzierender Unternehmen (A4). Auf Basis des Y-CIM-Modells werden in mehreren Modulen Kennzahlen gebildet, zu denen z. B. Finanzbuchhaltung, Personalwirtschaft, Marketing, Produktionsplanung und -steuerung, Produktentwicklung sowie Qualitätsplanung zählen (A2). Auch ein Vorgehensmodell und Beispiele zur Anwendung der Kennzahlen werden gegeben. Der Ansatz adressiert die Analyse kurzfristiger Effekte. Konzepte für eine zeitlich totale Betrachtung werden nicht vorgestellt (A3). Darüber hinaus bleibt 257 unklar, ob neben dem (operativen) Management weitere Anspruchsgruppen in der kennzahlenbasierten Prozessanalyse berücksichtigt werden (A1). ALLWEYER stellt eine „Einführung in das Prozessmanagement“ vor [2]. Die dargestellten Methoden zum Prozesscontrolling dienen der Messung von Prozesskennzahlen für die Überwachung des Prozessbetriebs (A4). Zur Unterstützung des Entwurfs werden Prozessanalysen und -simulationen thematisiert, in denen neben qualitativen Aspekten auch Durchlaufzeiten und Prozesskosten untersucht werden (A2). Strategische und organisatorische Maßnahmen zur Umsetzung des Prozessmanagements werden diskutiert – umfassende Gestaltungsempfehlungen werden jedoch nicht gegeben (A5). BECKER ET AL. liefern ein Beispiel für ein „Vorgehensmodell zum Prozessmanagement“ [3]. Ein dediziertes Prozesscontrolling ist in der Phase des kontinuierlichen Prozessmanagements vorgesehen. Hierbei werden modellbasierte Rechnungen für Zeitvorgaben sowie Ansätze der Prozesskosten- und -leistungsrechnung vorgestellt (A4). Auch werden Ansätze zum Management der Prozessperformance diskutiert. Anhaltspunkte zur Prozessgestaltung werden zur Analyse von Ist- und Sollmodellen gegeben. Neben qualitativen Ansätzen wird auch auf die Möglichkeit von Prozesssimulationen zur Analyse von Zeiten und Kapazitäten hingewiesen (A2). Die langfristigen Auswirkungen von Prozessgestaltungsmaßnahmen werden jedoch nicht hinreichend erfasst (A3). Ebenso ist keine systematische Maßnahmenbewertung der Prozessgestaltung vorgesehen. Bewertungskonzepte für strategische und organisatorische Maßnahmen werden nur knapp vorgestellt (A5). Mit einem „Controllingorientierten Beitrag zum Prozessmanagement“ stellen HORVÁTH& PARTNERS eine Vorgehensweise zur Prozessanalyse vor, bei der Kapazitäten, Kosten, Schwachstellen und Durchlaufzeiten in Kostenstellen gemessen werden [20] (A2). Ebenfalls thematisiert werden ein Regelkreis für das Prozessbenchmarking, der Aufbau und die Weiterentwicklung der Prozesskostenrechnung sowie IT-Lösungen für die Messung der Prozessperformance und die Kalkulation von Prozesskosten (A4 & A5). Methoden für mehrperiodige Wertbetrachtungen werden nicht vorgestellt (A3). Ein Beispiel für „formale Prozessanalysen“ liefern RICHTER-VON HAGEN/STUCKY [24]. Zur Prozessgestaltung werden als Designkriterien Kosten, Zeit, Flexibilität und Qualität genannt (A2). Einflussfaktoren auf die Kosten sowie Regeln ihrer entscheidungslogischen Verdichtung werden nicht dargestellt. Thematisiert wird außerdem die Prozessanalyse zur Validierung, Verifikation und Leistungsbewertung von Prozessen auf Basis von Warteschlangenmodellen und Simulationen (A4). Die Stakeholderorientierung (A1) ist gering. Mit dem „Workflow-basierten Prozesscontrolling“ entwickelt ZUR MÜHLEN einen Ansatz, in dem die von Workflowmanagementsystemen protokollierten Nutzungsdaten der Prozessausführung für das Controlling von Prozessen genutzt werden [30] (A4). Der Ansatz basiert auf einem Referenzmetamodell für die bei der Prozessausführung erzeugten und verarbeiteten Daten. Eine Bewertung der Prozessausführungen wird hierbei im Rahmen eines multidimensionalen Zielsystems vorgenommen (A2). Weitergehende ökonomische Bewertungen der betrachteten Prozesse werden jedoch nicht adressiert. Die Auswertung der Quellen zeigt, dass Arbeiten zum Prozesscontrolling überwiegend für die Steuerung von Prozessen entwickelt werden [19], während ein Prozesscontrolling zum Zeitpunkt der Prozessgestaltung in den meisten Arbeiten gänzlich unberücksichtigt bleibt. Vielmehr wird von existierenden Prozessen ausgegangen, die nach Prinzipien eines Regelkreismodells zu überwachen und zu modifizieren sind [4]. Die Anforderungen an ein wertorientiertes Prozessmanagement wer- 258 den nur teilweise und insgesamt unzureichend unterstützt. Die Beiträge erfüllen jeweils höchstens zwei der Anforderungen hinreichend. Am ausgeprägtesten erscheint die Wertorientierung im Vorgehensmodell von BECKER ET AL., in dem sämtliche Anforderungen zumindest teilweise berücksichtigt werden. Im Folgenden wird diskutiert, welche zukünftigen Herausforderungen sich stellen. 5. Explikation zukünftigen Forschungsbedarfs Der zukünftige Forschungsbedarf soll exemplarisch am Vorgehensmodell von BECKER ET AL. veranschaulicht werden [3]. Das Vorgehensmodell unterscheidet die Phasen Projektmanagement, Modellierung vorbereiten, Strategie und Ordnungsrahmen entwickeln, Ist- bzw. Sollmodellierung und -analyse, prozessorientierte Aufbauorganisation, Neuorganisation und kontinuierliches Prozessmanagement. Genauer zu untersuchen ist nun, inwieweit die einzelnen Phasen den Anforderungen (A1) bis (A5) genügen. Auf dieser Grundlage wird dann der Erweiterungs- und Forschungsbedarf für die einzelnen Phasen skizziert. Eine Übersicht gibt Abbildung 4. Abbildung 4: Explikation zukünftigen Forschungsbedarfs Bereits in der Modellierungsvorbereitung ist eine Vielzahl an Entscheidungen zu fällen, die hinsichtlich ihrer wertmäßigen Konsequenzen in einer spezifischen Unternehmenssituation abzuschätzen sind. Hierzu zählen die Definition von Modellierungsgegenstand, -perspektiven und -methoden sowie die Auswahl von Modellierungswerkzeugen. Zu planen sind auch Aufwendungen für die Durchführung von Akzeptanztests, zum Aufbau von Methodenkompetenzen, zur Definition und 259 Anpassung organisationsinterner Modellierungsstandards oder zur Auswahl, Beschaffung und Anpassung von Modellierungswerkzeugen (A5). Dabei wird bereits die Notwendigkeit zur Einbeziehung unterschiedlicher Stakeholder-Perspektiven und Zielsysteme ersichtlich (A1 & A2). Ein wesentlicher Aspekt ist auch die Bewertung des für diese Phase anzusetzenden, personellen und zeitlichen Aufwands (A2). Erfahrungen mit Modellierungsprojekten in der Praxis zeigen, dass relativ viel Zeit auf die Auswahl eines Modellierungstools verwendet wird, während der Einfluss dieser Auswahlentscheidung auf den durch Reorganisationsmaßnahmen zu erzielenden Wert kaum nachzuweisen ist. Methodisch besteht hier die Herausforderung, Entscheidungsträger zu groben Abschätzungen zu befähigen, deren Werte im weiteren Verlauf der Prozessgestaltung rollierend fortgeschrieben und detailliert werden können. In der Phase Entwicklung von Strategie und Ordnungsrahmen werden Prozessreorganisationsmaßnahmen in einen übergeordneten organisatorischen Zusammenhang gebracht. Ausgehend von strategischen Überlegungen und daraus abgeleiteten Effizienzzielen für strategische Organisationsbereiche werden in dieser Phase grobe Prozessstrukturen und -ziele definiert. Hier stehen Fragen eines sog. Alignments im Mittelpunkt, die durch eine entsprechende wertmäßige Betrachtung zu ergänzen sind. Insbesondere die Wirkung der auf einzelne Prozessbereiche fokussierten Maßnahmen auf andere Unternehmensbereiche und übergeordnete Zielwerte ist wesentlich (A5). Eine besondere Herausforderung ist die Flexibilität der zu entwickelnden Methodensysteme, da in Abhängigkeit der strategischen Vorgaben auch eine Prüfung (und ggf. Ausdifferenzierung) des Zielsystems der Bewertung vorzunehmen ist (A1 & A2). Insgesamt kann ein wertorientiertes Prozessmanagement hier wichtige Entscheidungsunterstützung bei der Auswahl der im Weiteren zu untersuchenden Prozessbereiche liefern. Diese Entscheidungen sind wesentlich, da hier Rahmenbedingungen festgelegt werden, die maßgeblich über die Wirtschaftlichkeit der späteren Phasen entscheiden. Zu entwickeln sind etwa multikriterielle Verfahren, um Prozessbereiche aus unterschiedlichen Zieldimensionen im Hinblick auf langfristige Reorganisationskonsequenzen zu bewerten (A2 & A3). Im Rahmen der Istmodellierung und -analyse werden die aktuellen Prozessstrukturen detailliert erfasst und Schwachstellen sowie Verbesserungspotenziale aufgezeigt. Der Fokus liegt auf der strukturellen Dokumentation des Istzustands. In Ergänzung zu qualitativen Beurteilungen sind Verfahren zu entwickeln, die helfen, Prozesse im Ist-Zustand im Hinblick auf unterschiedliche Anspruchsgruppen und Zielinhalte zu bewerten (A1 & A2). Ein Beispiel liefern Arbeiten zur monetären Bewertung von Prozessen [29], die nach den hier beschriebenen Anforderungen um Wertansätze in weiteren Zieldimensionen und -fristigkeiten zu ergänzen sind (A2 & A3). Das gleiche Instrumentarium ist für die Phase der Sollanalyse zu verwenden. Hier können entsprechend die Mehrwerte alternativer Sollmodelle sichtbar gemacht werden, um eine Auswahlentscheidung alternativer Reorganisationsmaßnahmen zu beurteilen. Eine wesentliche Herausforderung bei der Gestaltung dieser Methoden liegt in der Einfachheit der Bewertung. Grundsätzlich besteht ein „trade-off“ zwischen der Fundiertheit und der Einfachheit von Methoden für die Bewertung von Prozessalternativen. In gewisser Weise „mustergültige“ Lösungen erfordern in der Praxis die Planung einer Vielzahl an Daten. Hier ist berechtigterweise die Frage nach dem Kosten-Nutzen-Verhältnis der Planung selbst zu stellen. Eine bloße Vereinfachung der Methoden, etwa durch eine einperiodige und somit statische Betrachtung, läuft aber Gefahr, den Entscheidungstatbestand unzureichend zu erfassen und durchaus auch zu Fehlentscheidungen zu führen. Die Herausforderung besteht also darin, zwar Vereinfachungen vorzunehmen, dies jedoch unter Berücksichtigung der methodischen Fundiertheit. Auch in den Folgephasen der prozessorganisierten Aufbauorganisation, der Prozesseinführung (Implementierung) und dem kontinuierlichen Prozessmanagement sind eine Vielzahl an Entscheidungen zu treffen, für die ein wertorientierter Ansatz Entscheidungsunterstützung liefern kann. 260 Hier wird deutlich, dass in den einzelnen Phasen zum Teil gleiche, zum Teil aber auch spezifische Methoden benötigt werden. Eine wichtige übergeordnete Herausforderung wird daher in der Methodenintegration bestehen. 6. Zusammenfassung und Ausblick In diesem Beitrag wurde argumentiert, dass die wertmäßigen Entscheidungskonsequenzen der Prozessgestaltung mit den bisherigen Methoden im Geschäftsprozessmanagement nur unzureichend beurteilt werden können. Der Beitrag ist daher als ein Plädoyer für eine zunehmende Wertorientierung im Prozessmanagement zu verstehen. Auf Grundlage der Koalitionstheorie wurden genauere Anforderungen an ein wertorientiertes Geschäftsprozessmanagement abgeleitet. Im Rahmen einer State-of-the-Art-Analyse bestehender Arbeiten im Geschäftsprozessmanagement wurde aufgezeigt, dass diese Anforderungen nur ansatzweise und insbesondere nicht umfassend erfüllt werden. Auf dieser Grundlage konnten Anhaltspunkte zukünftiger Forschungsarbeiten auf dem Gebiet eines wertorientierten Prozessmanagements aufgezeigt werden. Dieser Beitrag soll dazu aufrufen, ein solches Forschungsgebiet zu begründen. Sicher ist, dass weitere Arbeiten notwendig sind, die auch eine Ausweitung der hier durchgeführten Literaturanalyse beinhalten. Ebenso ist zu untersuchen, welche zusätzlichen Theorien einen Erkenntnisbeitrag liefern können. Im Hinblick auf die Methodengestaltung kommt gerade der Integration von Arbeiten auf den Gebieten Wirtschaftsinformatik und Controlling eine besondere Bedeutung zu. Erkenntnisgewinne sind auch aus der praktischen Erprobung bereits vorliegender und noch zu entwickelnder Methoden zu erwarten. Literatur [1] AICHELE, C., Kennzahlenbasierte Geschäftsprozessanalyse, Berlin et al. 1997. [2] ALLWEYER, T., Geschäftsprozessmanagement. Strategie, Entwurf, Implementierung und Controlling, Bochum 2005. [3] BECKER, J.; KUGELER, M.; ROSEMANN, M. (Hrsg.), Prozessmanagement. Ein Leitfaden zur prozessorientierten Organisationsgestaltung, 5. Aufl., Berlin et al. 2005. [4] BECKER, J.; SCHÜTTE, R., Handelsinformationssysteme. Domänenorientierte Einführung in die Wirtschaftsinformatik, 2. Aufl., Frankfurt am Main 2004. [5] BECKER, R.; SCHMIDT, H., Teamorientierte Geschäftsprozessoptimierung, in: Horváth&Partners (Hrsg.), Prozessmanagement umsetzen. Durch nachhaltige Prozessperformance Umsatz steigern und Kosten senken, Stuttgart 2005, S. 107–122. [6] BERNARD, C. H., The Functions of the Executive, Cambridge 1938. [7] BIFFL, S., AURUM, A., BOEHM, B., Value-Based Software Engineering, Springer, Berlin 2005. [8] COOPER, H. M., Synthesizing Research – A Guide for Literature Reviews, 3. Aufl., Thousand Oaks et al. 1998. [9] COPELAND, T.; KOLLER, T.; MURRIN, J., Unternehmenswert. Methoden und Strategien für eine wertorientierte Unternehmensführung, Campus Verlag, Frankfurt/New York 2002. [10] CORSTEN, H. (Hrsg.), Grundlagen und Elemente des Prozessmanagement, in: Schriften zum Produktionsmanagement, Bd. 4 (Kaiserslautern 1996). [11] CYERT, M. R.; MARCH, J. G., A Behavioral Theory of the Firm, Englewood Cliffs, New Jersey et al. 1963. 261 [12] DAVENPORT, T. H., Process Innovation. Reengineering Work Through Information Technology, Boston 1993. [13] FETTKE, P., State-of-the-Art des State-of-the-Art – Eine Untersuchung der Forschungsmethode "Review" innerhalb der Wirtschaftsinformatik, in: Wirtschaftsinformatik, 48(4), 2006, S. 257–266. [14] FREEMAN, R. E., Strategic management: a stakeholder approach, Boston 1984. [15] GIAGLIS, G. M.; PAUL, R. J., It`s Time to Engineer Re-engineering. Investigating the Potential of Simulation Modelling for Business Process Redesign, in: B. Scholz-Reiter; E. Stickel (Hrsg.), Business Process Modelling, Berlin et al. 1996, S. 313–332. [16] GREGOR, S., The Nature of Theory in Information Systems, in: Management Information Systems Quarterly (MISQ), 30(3), 2006, S. 611–642. [17] GROB, H. L.; VOM BROCKE, J., Controlling des Designs von Logistikprozessen, in: H. Baumgarten; J. Becker; H. P. Wiendahl; J. Zentes (Hrsg.), Logistik Management, Springer Expertensystem, Berlin 2004, S. 1–26. [18] HAMMER, M.; CHAMPY, J., Reengineering the Cooperation. A Manifesto for Business Revolution, Harper, New York 1993. [19] HESS, T.; BRECHT, L., State of the Art des Business Process Redesign. Darstellung und Vergleich bestehender Methoden, 2. Aufl., Wiesbaden 1996. [20] HORVATH&PATNERS, Prozessmanagement umsetzen. Durch nachhaltige Prozessperformance Umsatz steigern und Kosten senken, Stuttgart 2005. [21] JOHNSON, T. H.; KAPLAN, R. S., Relevance Lost. The Rise and Fall of Management Accounting, Boston, Massachusetts 1987. [22] JONES, M. T.; ELLIOTT, R.; BALL, D. Z.; HEIN, G. F., Using Simulation as a Tool for Business Process Innovation, in: Proceedings of the Winter Simulation Conference, Piscataway, New Jersey 1993. [23] KAPLAN, R. S.; NORTON, D. P., The Balanced Scorecard. Measures that Drive Performance, in: Harvard Business Review, 70(1), 1992, S. 71–79. [24] RICHTER-VON HAGEN, C.; STUCKY, W., Business- Process und Workflow Management. Prozessverbesserung durch Prozess Management, Stuttgart et al. 2004. [25] SALFELD, R.; COENENBERG, A. G., Wertorientierte Unternehmensführung: Vom Strategieentwurf zur Implementierung, 2. Aufl., Schäffer-Poeschel, Stuttgart 2007. [26] SIMON, H. A., Administrative Behavior. A Study of Decision-Making Processes in Administrative Organizations, New York 1949. [27] VOM BROCKE, J., Service Portfolio Measurement. Evaluating Financial Performance of Service-Oriented Business Processes, in: International Journal of Web Services Research (IJWSR), 4(2), 2007, S. 1–32. [28] VOM BROCKE, J.; BUDDENDICK, C., Alignment Controlling – Der Beitrag einer wertorientierten Prozessgestaltung, in: Proceedings of the Multikonferenz Wirtschaftsinformatik (MKWI), München 2008. [29] VOM BROCKE, J., MENDLING, J., RECKER, J., Value-Oriented Process Modelling. Towards a Financial Perspective on Business Process Redesign. Paper presented at the 14th Americas Conference on Information Systems (AMCIS 2008), Toronto, CA. [30] ZUR MÜHLEN, M., Workflow-based Process Controlling. Foundation, Design, and Application of Workflow Driven Process Information Systems, Berlin 2004. 262 COLLABORATIVE SERVICES / SERVICES FÜR DIE KOOPERATION Serviceorientierung wird auch für die Unterstützung der Zusammenarbeit zwischen Menschen, Gruppen und Organisationen wichtiger. Als Service wird (gemäß ITIL V3, vereinfacht) ein Bündel aus Applikationen, Hardware, Personen, Organisationen und unterstützenden Dienstleistungen verstanden, welches Anwendern zur Verfügung gestellt wird. Wir sind interessiert an Einreichungen, die neues Wissen zu Kooperationssystemen, konkret der Entwicklung, Einführung, Nutzung und Evaluation von Services zur Unterstützung von Zusammenarbeit erarbeiten, sowie innovative Konzepte und Systeme aus diesem Bereich vorstellen. Diese betrachteten Kooperationssysteme können professionell oder von Endbenutzern entwickelt sein. Der Bezug zu Organisationen sollte deutlich sein. Leitungsgremium: Norbert Gronau, Universität Potsdam Michael Koch, Universität der Bundeswehr München Gerhard Schwabe, Universität Zürich (Federführender) Volker Wulf, Universität Siegen Programmkomitee: Andrea Back, Universität St. Gallen Jörg Beringer, SAP Steffen Budweg, Fraunhofer FIT Roman Englert, Telekom Deutschland Joerg Haake, FernUniversität Hagen Bettina Hoser, Universität Karlsruhe Remko Helms, Utrecht University Niederlande Harald Katzmair, FAS research, Austria Ralf Klamma, Rheinisch-Westfaelische Technische Hochschule Aachen Jan-Marco Leimeister, Universität Kassel Stephan Lukosch, FernUniversität Hagen Florian Matthes, Technische Universität München Jasminko Novak, Universität Zürich Volkmar Pipek, Universität Siegen Wolfgang Prinz, RWTH Aachen und Fraunhofer Kai Riemer, Universität Münster Gerold Riempp, European Business School Deutschland Johann Schlichter, Technische Universität München Stefan Uelner, T-Systems Jan vom Brocke, Hochschule Liechtenstein PRESENCE SIGNALLING IN UNIFIED COMMUNICATION SYSTEMS – A FRAMEWORK FOR CUSTOMISATION IN CONTEXT Kai Riemer, Stefan Klein1 Abstract In this paper we present Unified Communications (UC) as a new class of communication systems, marketed by vendors as a means for integrating communication media and creating presence awareness. Designed as complex infrastructures, UC systems enfold their full potential when being customised to a particular social context. In doing so, the technology allows creating contextspecific presence signalling solutions. The main contribution of this paper is a conceptualisation of the various design questions relevant in the customisation of UC presence signalling aspects. To this end, we present a seven-step process framework as guidance for implementers of UC infrastructures. 1. Introduction Unified Communications (UC), as a new and emerging class of systems, is based on the integration of communication media (e.g. Instant Messaging and Voice-over-IP (VoIP) telephony) with presence availability signalling. Being the result of a convergence of the telecommunications and the software market, a range of prominent vendors from both domains are currently entering the market with UC solutions, e.g. Alcatel, Avaya, Cisco, IBM, Nortel, Microsoft, Oracle, or Siemens. UC systems are designed as open infrastructures that allow (and require) customisation and adaptation in context. One claim of UC vendors is to take presence signalling to a new level, e.g. by applying the concept across media classes and by embedding presence signalling in the context of business processes and third party software applications. However, UC is still in its infancy with systems not yet living up to their promises; empirical examples of UC applications in organisations are rare and show that many envisioned features are yet to be implemented. Hence, research at this stage needs to be experimental or conceptual. In this paper, we explore the complexities of presence signalling in UC systems. We take the standpoint of implementers who want to adapt UC in context and create context-specific ways of presence signalling. Owing to the complexity of UC systems, many design questions can be identified that need to be taken into account. We have structured a range of complexities in a framework. Before we discuss the design and decision areas in the seven phases of our framework, we first motivate our study by briefly reviewing typical communication challenges in contemporary workplaces and by discussing the role of presence signalling in creating awareness in distributed 1 University of Münster, Department of Information Systems, Leonardo-Campus 3, D-48149 Münster 265 contexts. We then introduce UC and its main building blocks, before the main section presents our framework. 2. Presence Awareness in distributed work 2.1. Communication challenges Work practices in organisations have been undergoing significant changes over the past years, which led to new virtual forms of organising and increased distributed collaboration [6,22,25,30]. At the same time, this development is driven by the emergence of new communication technologies and devices, which on one hand drive organisational decentralization [26] and on the other hand enable people to work across a variety of boundaries [38]. At the same time, new communication channels (e.g. Voice-over-IP telephony, Instant Messaging) have mushroomed, which led to a heterogeneous accumulation of technologies that are available to the average user [21]. Many people today do not just possess one phone number or IM account, but rather they use several channels to communicate with their peers [e.g. 34]. This escalating variety of channels and devices, as well as the ever increasing messaging activity [13] increase drastically the communicative complexity for both initiator and recipient of a communication request. For initiators situations are characterised by a high uncertainty as they have to think about the recipient’s context, the appropriate channel or device, and the relevant contact details in terms of accounts and phone numbers [16]. Also, availability of others in distributed contexts is often a serious problem. For recipients the situation creates interruptions and disturbances as asymmetries of interaction become more likely in distributed contexts [15,36]. People are potentially confronted with a level of interaction that might exceed their personal preferences causing interaction overload. 2.2. Awareness of presence availability A main shortcoming in the above-described situation is a general lack of awareness of other people’s location, context, activities, and availability for communication. In traditional workplaces awareness is generally taken for granted and therefore seldom discussed at all [9,27]. Awareness is “an understanding of the activities of others, which provides a context for your own activity” [8, p. 107]. In this paper we are specifically interested in the awareness of other people’s presence, i.e. their availability for communication. Without presence awareness, availability of people cannot be easily determined and interruptions though communications requests are more likely. Through ICT people have the means to become available for others. Empirical evidence suggests that technology can be used to facilitate awareness of presence (e.g. location and context) and of presence availability (e.g. availability for communication) and thus mitigate some of the mentioned communication problems [31]. 2.3. The role of technology in awareness creation While it has been argued that awareness can never be a property of technology itself [32], because it results from a learned and skilful action and thus is the result of shared social practices [10,11,35], technologies nevertheless play an important role in enabling and supporting the creation of awareness. ICT has become an integral part of practices of people who use features designed to specifically support awareness creation or appropriate others in ways that makes them useful for doing so. One technology that is marketed with the label of presence awareness attached to it, and which is designed for addressing the above discussed communication issues, is Unified Communications (UC) technologies. UC systems can be interpreted as complex infrastructures, 266 whose features need to be adapted to and interpreted in social context for them to enfold their full potential [28]. Against this backdrop the main contribution of this paper is to provide a structured overview of design-decisions in the process of customising presence availability signalling features when applying UC in context. Before we present a framework for structuring the steps necessary in the customisation of presence availability signalling, we briefly introduce this new class of systems and give an overview of its features and characteristics. 3. Unified Communications Systems Being a result of market convergence, UC has its roots in both the telecommunications and the groupware market. Consequently, UC systems, as complex infrastructures, integrate groupware functionality with (IP-based) communications media (computer-based telephony, voice, and video services) with presence technologies and business applications [34,16,3,23]. 3.1. UC building blocks The general idea of UC systems is to help people juggle with their communication requests in the face of interaction overload [24] and to improve people’s accessibility by providing presence availability information and by integrating media and devices [13]. As such, UC is the product of the integration of various components and features. First of all, UC is based on the idea of media integration (unified communications): Devices are registered within the system and users are aided by a communication middleware in their management through a rule-based coordination and filtering system. Typically such systems provide users with a universal phone number, which finds them wherever they wish to be found [13,33]. On the technical level, this media integration is based on IP-technology [33,37]. Moreover, one of the main features of UC lies in the provision of presence information in regards to the availability of the user and his/her media and communication devices (see below). Thirdly, UC systems unfold their strengths when integrated within the context of the user, in particular with organisational processes and third party business applications (e.g. ERP systems). A core idea thus is to circumvent the need to pre-schedule communication and to solve the users’ information needs by immediately allowing them to communicate [16]. 3.2. Presence signalling in UC systems The signalling of presence availability is a defining feature of UC, which distinguishes it from traditional synchronous communication technologies. Much like the increasingly popular Instant Messaging (IM) tools, UC systems come with a presence awareness capability [4] or presence management feature [17]. The idea of this presence information is for a user to signal to the initiator of a communication act, independent of a recipient’s physical location, the availability for interaction, i.e. the “ability and willingness to communicate” [7, p. 84]. Two characteristics set apart corporate UC systems from simple IM tools: openness and complexity. UC systems are complex infrastructures that on the one hand allow adaptation and customising in context, in order for UC implementers to create context-specific UC solutions that become embedded with the workspaces of corporate users. On the other hand, UC infrastructures bring in a range of means to design complex presence availability signalling mechanisms. While UC systems are seen by many vendors as a solution to the above portrayed problems, we argue that UC, as open, flexible infrastructures, require adaptation and a certain degree of customising in context in order to live up to their promises. In the following, we present ways in which UC infrastructures can be adapted by moulding their features in the process of implementing the technology. 267 4. Framework for customising UC presence signalling The main contribution of this paper is a structured overview of design decisions likely to be encountered by those who want to customise or adapt to an organisational context the presence signalling aspects of UC infrastructures. In doing so however, we will not delve into the richness of signalling practices that are likely to emerge in context as the result of tool appropriation by users, for a related study see [29,31]. We approach our exploration of signalling design questions from the perspective of implementers and introduce a process framework, which presents design areas that, as we argue, should be considered during the process of adapting UC infrastructures to a specific organisational context (see table 1). The process begins with more technical or systems design considerations and then moves gradually to the more social/contextual design decisions. Step Description Design question 1 Generating presence availability information How are user states determined? 2 Defining the status types What are the status categories (states) available to users? 3 Presenting the signals How are signals conveyed/visualized within use context? 4 Enriching the availability status information How can the availability status be complemented? 5 Embedding in context What objects will the status signals be attached to? 6 Differentiating for different recipients Who is allowed to see what kind of status? 7 Supporting UC adoption in context How can users be supported in adopting signalling? Table 1: Process steps of our presence signalling framework 4.1. Step 1: Generating presence information In a first step, UC implementers have to decide on how the presence availability information is generated, i.e. is it automatically determined by the UC system, e.g. by using device states, or is it based on explicit user entries? In its most simple form, the presence status is derived from the user being logged on to the system [2]. As such, the status merely signals whether the user’s computer system is currently online or offline [5]. In addition, in UC systems presence information can originate from all devices a user possesses [14]. Since every communication device needs to be registered with the UC system, information of the current technical availability of all user devices exists (e.g. IM, cell phone, landline/IP phones). This information can by used as a proxy for user availability. However, the availability of devices serves only as a fairly inaccurate proxy. Consequently, one important factor in applying availability signalling is exploring and determining ways in which more accurate information can be (automatically) gathered by the system in a given context [39]. A further source is monitoring and interpreting user activities within the context of the UC system. Being based on IP-technology the system can derive the technical states of phones and hence deduce current user activity. Moreover, the system might be able to recognize from which device a user is logged on to the system thus conveying that a user is currently travelling (e.g. when being logged in from a PDA device) [20]. Also, various other sensors (e.g. Smart cards) can be used to track user activity and infer user availability (e.g. the user entering a meeting room). Finally, the availability states can be explicitly selected by the user from a set of standard states [12]. 268 4.2. Step 2: Defining presence states Having introduced several ways to determine and automatically infer user availability states, the next decision area is defining the actual range of states available for signalling. Typical IM and UC systems usually come with a range of around seven different states (see figure 1 for an example). Figure 1: Presence states in Skype™ and Microsoft Live Messenger™. While all UC systems come with a range of predefined states, most systems provide means to override the default states in order to establish a custom-made (context-specific) way of signalling. In doing so, we propose that presence states be selected according to the following quality criteria: completeness, semantic clarity, mutual exclusiveness, and simplicity. The range of available states should be complete in a sense that for every situation one state exists that signals best the user’s availability in this situation to the user’s peers. This does not mean that UC systems should provide a long list of different states for every possible situation, because this is in conflict with the requirement of simplicity. We reason that only a short and comprehensive list of signals can be grasped easily by the average user and thus be incorporated in their daily work practices. For doing so, the list of states also needs to be semantically clear; the user should be able to immediately understand what a status means and when to use it. It should also be unambiguous in a sense that consensus on when/how to use a certain state is easily (intuitively and naturally) be achieved within the relevant peer group. For example, in the Live Messenger™ example (figure 1) it is not immediately clear how the states ‘be right back’, ‘away’ and ‘out to lunch’ (Live Messenger) should be interpreted in terms of the time span the user is likely to be unavailable. Also, states such as ‘away’ and ‘out to lunch’ are not mutually exclusive – a user who is out to lunch is also ‘away’. In order to make both signalling and the interpretation of signals easier and clearer, the users should know exactly what state to choose in a given situation. And in order to achieve a main goal of UC – improving availability for communication – it is necessary for users to be able to infer from a presence status the time span for which a user is likely to be unavailable. A trade-off exists between the granularity (or specificity) of states and its average correctness in context. For example, in an extreme form the system might allow users to specify (e.g. in minutes) the exact time s/he is likely to be unavailable. The complexity and interconnectedness of a typical office or work setting however renders impossible the prediction of such exact time spans. The likely consequence is that most signals in context would be incorrect and thus perceived as unreliable, with possible negative ramifications for system adoption. Hence, we reason that the more specific the range of states is in terms of time, the more likely it is to signal incorrectly. Consequently, the actual range of states should convey a sense of time span for unavailability but in a more general sense. 269 4.3. Step 3: Presenting the signals The next step is designing the ways in which the states are conveyed to users within the workplace context. Several ways exist in which signals can be presented to the user: states can be visualized using iconographic designs and/or colour [12], sound might be used to convey certain status changes. In IM tools the colour green seems to be the dominant choice to convey availability, while red signals unavailability. This colouring obviously relates back to traffic light colours; using such a colour code for signalling has the advantage that it is inter-culturally unambiguous. Again, it would be preferable to have signals (icons/colour dots) that are easily understandable and selfexplanatory in order to reduce cognitive burden for the user and allow for a seamless adoption process. Drawing on well-established colour codes and metaphors/icons serves as a good rule of thumb in this decision area. In addition to visualizing the different states, the changes between states can also be signalled using visual or sound signals. For example, some IM tools indicate with small pop-up windows (or a sound) whenever a contact in the user’s buddy list becomes available (i.e. logs on to their computer). However, in many contexts this might cause too many unwanted interruptions for the average user; it might thus be offered as an additional feature used to be notified when one is waiting for another user to become available. 4.4. Step 4: Enriching states with context information Up to now, we have introduced design areas concerned with determining, defining and presenting user availability states in a way that is, in its most simple form, well-known from IM tools. However, the idea of providing as presence information one status for every user (e.g. ‘away’), is rather limiting in terms of estimating the time-span for the user to become available again. Hence, we can complement the availability status with other information, which can be made available within UC systems. Ageing information can be used to determine the age of a current signal. For example, when a user signals ‘be right back’, other users expect her/him to become available within a reasonably short time-span. However, they do not know how old the signal is. By adding ageing information, which reveals the time since the status was changed, users are able to better assess the actual availability. Another way to improve status interpretation is to provide access to (selected) calendar entries. When a user signals ‘away’ and her/his calendar entry for this time shows that s/he is in a meeting, others can much better anticipate future availability than without the additional calendar information. A different kind of context information is location data. Location data provides users with awareness of users’ whereabouts, which also aids in assessing user availability. Researchers have demonstrated ways to infer and convey location information in office settings [19]. In flexible office settings that allow people who are travelling frequently (e.g. sales people,) to book a desk for a day (so called non-territorial office, hotelling or desk-sharing concept) [18,1], the UC system can signal to other users the actual desk the user is working at in order to make it easier to arrange for ad-hoc meetings. A simple yet effective way to provide additional information about one’s availability is a short text message, a so-called presence messages [40]. Users can type in a short message that is then listed alongside the presence availability status explaining absence and future availability. Finally, in addition to the user presence status, which signals general availability of the user, UC infrastructures allow inferring and presenting separate availability states for the different devices or media channels available to contact a user. For example, designers might decide to provide availability data on the device level, i.e. data on whether the mobile phone is currently booked in to the system, or whether the IP phone is currently online or engaged. 270 4.5. Step 5: Embedding of signalling in context So far, we have discussed signalling on the user level (and in relation to his/her devices). In a next step, these user availability states can be embedded within the group and business process context. For example, user states can be aggregated on the group level in order to provide a sense of group availability; i.e. a maximum status shows ‘available’ when all group members are available within the sphere of the UC system, e.g. to initiate a conference call. The minimum status shows ‘available’, when at least one of the group members is available. This status can be used when the user “would like to talk with someone with similar interest or expertise but don’t care who the specific individual is” [2, 12]. Presence states can also be attached to and be aggregated on the level of almost any object available in the electronic workspace of users, i.e. wherever objects have ownership or are otherwise related to people and can thus inherit their presence states. For example, in a hospital scenario, presence information of authors of laboratory files or patients records can indicate their accessibility for urgent call-backs by the doctor on duty. Through aggregation on the file level, the doctor might be able, in case of an emergency, to get in immediate contact with specialists, who can give background information related to the particular file or to otherwise consult with these colleagues. 4.6. Step 6: Differentiate states for various recipients So far, we have mainly taken the perspective of the initiator who wants to determine people’s availability (or the time of non-availability). We have asked questions in regards to what kinds of presence information might be needed in a particular context, where to gather this information, how and where in the work context this information might be presented. Now, we will turn to the perspective of the one who is signalling availability. The first question in this area is to determine whether signals should have global validity or whether people should be able to restrict certain signalling to (sub)groups. When signalling, people sometimes need to convey certain information (e.g. with regards to location or tasks) to some people within their peer group, but not to others. Also, people, in some situations, might want to be available for some group members, while at the same time signal unavailability towards the rest. Hence, UC implementers need to explore, if such a differentiated signalling is needed in a particular context and how to implement it. A solution seems to be a concept, in which the user defines different groups for which he/she can (but needs not to) signal different states of availability. Such a group concept might be modelled as user circles with the inner circle having access both to the most accurate information and to more context information (see step 4). An outer circle then only sees a basic presence status, which, if required, can be set to signal unavailability to temporarily reduce communication load, e.g. in tight project situations. 4.7. Step 7: Support adoption of signalling in context This last step in our framework again takes the perspective of the user who actively signals availability. In many situations the user has to actively change the states in the UC system in order to truly reflect current availability. We acknowledge that signalling can be cumbersome and that users might neither be able nor willing to change significantly the way they work in order to incorporate signalling in their routines. Hence, UC implementers need to explore ways in which the user can be supported by the system and in which the changing of states can be attached to existing user routines without the user having to pay explicit attention to the changing of the status 271 (piggyback routines). In the literature authors have argued for a need to support signalling “in a way that uses human capability to peripherally process non-attended aspects.” [39, 298] One such way is using sensing devices. Siemens AG for example, as part of their research on the use of their Openscape UC system, have developed a prototype extension which allows the user status to be changed on the basis of a Bluetooth connection between user computer and the user’s cell phone. Users who carry a Bluetooth-capable mobile phone can activate the service and link it with their computer; the UC extension then monitors this connection and changes the availability status to signal ‘(temporal) unavailability’ whenever the user leaves the vicinity of the computer. Another technology again uses the cell phone; it piggybacks with the user routine of muting the ring tone whenever entering a meeting. A service can send a short message (SMS) to the UC server initiating the corresponding status change. 5. Conclusion and outlook Despite a boom of new communication services and devices individual and organisational communication problems have increased with the number of communication partners across projects and time zones and with a steep increase in computer-mediated communication encounters. The industry appears to respond to this situation with more devices, more services, and even more features (‘more of the same’). UC systems are a manifestation of this trend. However, extending communication options (i.e. by integrating media and combining it with presence signalling) in itself does not automatically solve communication problems. Rather, these infrastructure technologies need to be adapted and interpreted in a concrete social context. Our framework is meant to elaborate on design parameters likely to be encountered by UC implementers when confronted with the task of applying UC to a specific organisational setting. We have presented a structured overview of the various complexities encountered by those who customise UC presence signalling aspects in context. In doing so, we have discussed in detail seven design and decision areas, which describe the complexities of presence signalling in UC systems when implemented in a social context. While our framework can be used by UC implementers as an overview and a first guide to approaching the customisation and embedding of an UC system in context, at the same time the framework points to the need to carry out empirical studies to better understand signalling and its implications on people and their work practices, i.e. once actual UC implementations become available in organisations. The framework has been the result of mainly conceptual work, but it is grounded in a series of design and case studies as well as workshops with representatives of UC vendors and designers. Nevertheless, it represents only a first step and a starting point in exploring the richness and challenges of UC as a technology when being applied in organisations. 6. References [1] BJERRUM, E.; BODKER, S., Learning and living in the 'New Office'. Proceedings of the Eighth European Conference on Computer-Supported Cooperative Work, 14-18 September 2003, Helsinki, Finland, 199-218. [2] BOYER, D. G.; HANDEL, M. J.; HERBSLEB, J. D., Virtual Community Presence Awareness, in: SIGGROUP Bulletin. 19, 3 (1998), 11-14. [3] BURTON, J.; PARKER, M.; PLEASANT, B.; VAN DOREN, D., Will 2007 be the Year of Unified Communications, in: Business Communications Review, March (2007), 20-26. [4] CAMERON, A. F.; WEBSTER, J., Unintended consequences of emerging communication technologies: Instant Messaging in the workplace, in: Computers in Human Behavior. 21 (2005), 85-103. 272 [5] CARMONA, J., Consequences of IM on Presence Awareness and Interruptions, in Kock, N. (ed.) Encyclopedia of E-Collaboration Information Science Reference, 2008, 102-106. [6] CIBORRA, C. U.; SUETENS, N. T., Groupware for an Emerging Virtual Organization, in Ciborra, C. (ed.) Groupware & Teamwork: Invisible Aid or Technical Hindrance?, Chichester, John Wiley & Sons, 1996. [7] DE POOT, H.; MULDER, I.; KIJL, B., How do Knowledge Workers cope with their Everyday Job?, in: eJOV The Electronic Journal for Virtual Organizations and Networks. 9 (2005), 70-88. [8] DOURISH, P.; BELLOTTI, V., Awareness and Coordination in Shared Workspaces, in Proceedings of Conference on Computer-Supported Cooperative Work (CSCW'92). Toronto, 1992, 107-114. [9] GUTWIN, C.; GREENBERG, S., A Descriptive Framework of Workspace Awareness for Real-Time Groupware, in: Computer Supported Cooperative Work. 11, 4 (2002), 411-446. [10] HEATH, C.; LUFF, P., Collaboration and Control: Crisis Management and Multimedia Technology in London Underground Line Control Rooms, in: Computer Supported Cooperative Work. 1, 1 (1992), 24-48. [11] HEATH, C.; SVENSSON, M. S.; HINDMARSH, J.; LUFF, P.; VOM LEHN, D., Configuring Awareness, in: Computer Supported Cooperative Work. 11, 4 (2002), 317-347. [12] HERBSLEB, J. D.; ATKINS, D. L.; BOYER, D. G.; HANDEL, M.; FINHOLT, T. A., Introducing Instant Messaging and Chat in the Workplace, in: chi letters. 4, 1 (2002), 171-178. [13] HUTTON, J., Unified Communications - A potential cure for communications overload, in: CMA Management, October (2001), 50. [14] JENNINGS, C., Why Unified Communications need Presence Federation, in: Business Communications Review, December (2006), 18-22. [15] KAKIHARA, M.; SØRENSEN, C.; WIBERG, M., Fluid Interaction in Mobile Work Practice. Proceedings of the First Global Roundtable, Tokyo, Japan, May 29-30th 2002, 1-15. [16] LAZAR, I., Integrating Telephony, IM, Video and Mobility with Presence, in: Business Communications Review, June (2006), 28-31. [17] LI, D.; CHAU, P. Y. K.; LOU, H., Understanding Individual Adoption of Instant Messaging: An Empirical Investigation, in: Journal of the Association of Information Systems. 6, 4 (2005), 102-129. [18] LINDSTROM, J.; MOBERG, A.; RAPP, B., On the classification of telework, in: European Journal of Information Systems. 6 (1997), 243-255. [19] LJUNGSTRAND, P.; SEGERSTAD, Y. H., Awareness of Presence, Instant Messaging and WebWho, in: SIGGROUP Bulletin. 21, 3 (2000), 21-27. [20] LUO, X.; LIAO, Q., Using IM to Improve E-Collaboration in Organizations, in Kock, N. (ed.) Encyclopedia of E-Collaboration Information Science Reference, 2008, 680-685. [21] LYYTINEN, K.; YOO, Y., Research Commentary: Next Wave of Nomadic Computing, in: Information Systems Research. 13, 4 (2002), 377-388. [22] MALHOTRA, A.; MAJCHRZAK, A.; CARMAN, R.; LOTT, V., Radical Innovation Without Collocation: A Case Study at Boeing-Rocketdyne., in: MIS Quarterly. 25, 2 (2001), 229-249. [23] MOHAMED, A., Work together any place, any time, in: Computer Weekly, 3/6/2007 (2007), 38-40. [24] OLIVA, R. A., Instant Messaging comes of Age, in: Marketing Management. 12, 3 (2003), 49-52. 273 [25] ORLIKOWSKI, W. J., Knowing in practice: Enacting a collective capability in distributed organizing, in: Organization Science. 13, 3 (2002), 249-273. [26] RAHMAN, Z.; BHATTACHRYYA, S. K., Virtual Organization: A Stratagem, in: Singapore Management Review. 24, 2 (2002), 29-45. [27] RENNECKER, J., Promoting Awareness in Distributed Mobile Organizations: A cultural and technological challenge. Proceedings of the GROUP'05, Sanibel, Florida, USA, November 6-9. [28] RIEMER, K.; FRÖSSLER, F., Introducing Real-Time Collaboration Systems: Development of a Conceptual Scheme and Research Directions, in: Communcations of the Association of Information Systems (CAIS). 20 (2007), 204-225. [29] RIEMER, K.; FRÖSSLER, F.; KLEIN, S., Real Time Communication - Modes of Use in Distributed Teams. 15th European Conference on Information Systems (ECIS 2007). St.Gallen (CH): 286-297. [30] RIEMER, K.; KLEIN, S., Is the V-form the next generation organisation? An Analysis of Challenges, Pitfalls and Remedies of ICT-enabled Virtual Organisations based on Social Capital Theory, in: Journal of Information Technology (JIT). 23, 3 (2008), 147-162. [31] RIEMER, K.; KLEIN, S.; FRÖSSLER, F., Towards a Practices Understanding of the Creation of Awareness in Distributed Work. Proceedings of the Twenty Eighth International Conference on Information Systems, Montreal, Canada. [32] ROBERTSON, T., The Public Availability of Actions and Artefacts, in: Computer Supported Cooperative Work. 11, 3-4 (2002), 299-316. [33] ROSENBERG, A. M., Do you need to replace Enterprise Voice Mail?, in: Business Communications Review, October (2005), 36-41. [34] RYBCZYNSKI, T.; SHETTY, M., Unified Communications: Where the World is heading, in: Financial Executive, June (2005), 31-33. [35] SCHMIDT, K., The Problem with 'Awareness', in: Computer Supported Cooperative Work. 11, 3 (2002), 285298. [36] SØRENSEN, C.; MATHIASSEN, L.; KAKIHARA, M., Mobile Services: Functional Diversity and Overload. Proceedings of the New Perspectives On 21st-Century Communications, Budapest, Hungary, May 24-25th, 1-12. [37] STEINMANN, M. J., Unified communications with SIP, in: Queue. 5, 2 (2007), 50-55. [38] TIANFIELD, H.; UNLAND, R., IT enabling: essence of virtual organizations, in: International Journal of Information Technology & Decision Making. 1, 3 (2002), 367-370. [39] TOLLMAR, K.; SANDOR, O.; SCHÖMER, A., Supporting Social Awareness @ Work - Design and Experience. Proceedings of the CSCW'96, Proceedings of the Conference on Computer Supported Cooperative Work, Cambridge, MA, USA, 298-307. [40] TRAN, M. H.; YANG, Y.; RAIKUNDALIA, G. K., Supporting Awareness in Instant Messaging: An empirical Study and Mechanism Design. Proceedings of the OZCHI, Canberra, Australia, November 23-25. 274 SUPPORTING RESEARCH COLLABORATION – ON THE NEEDS OF VIRTUAL RESEARCH TEAMS Jens-Henrik Söldner, Jörg Haller, Angelika C. Bullinger, Kathrin M. Möslein1 Abstract Virtual teams are increasingly common in research as in corporate reality. While collaborative work in enterprises has received considerable attention, detailed understanding of collaborative work in virtual research teams is missing. To close this gap, we develop a model of the collaborative research process from idea generation to communication. We illustrate that the research phases require different support functions on the individual as well as on the team level. We explain that software tools, in particular social software, can provide support for collaborative work in virtual research teams. 1. Introduction With the first collaborative scientific paper published in the year 1665, collaboration in research can nowadays be regarded as standard procedure [1]. While previous literature on research collaboration defines generic collaboration as "a mutually beneficial relationship entered into by two or more parties to achieve common goals" [16] and Schrage [21] specified it to be a "process of shared creation", collaboration in research has some specific additional characteristics. Scientific research is a dynamic process, dealing with typically complex problems. Collaborators are by nature highly specialized in their field and act in a very dynamic context [9]. The strong increase of paper publication illustrates that fact: in the period of 1981 to 1994, the global output of scientific papers went up by 3.7 per cent each year, which signifies a doubling of the global scientific output every nineteen years [17] – already at that time! Parallel to this development, the amount of publications by multiple authors has increased, not least influenced by "publish or perish" mentality. In some disciplines, an amount and speed of publication is required which can nearly exclusively be attained by a combination of forces – intellectually as well as financially [14]. This combination often takes place in collaborative research projects between a number of institutions, diverse departments and on different academic levels. The collaborating members of a research project can hence be regarded as a virtual team. Their interaction is supported by information and communication technology (ICT) and various software applications, as the characteristic of local disparity renders face-to-face interaction rare. 1 Friedrich-Alexander-Universität Erlangen-Nürnberg, Lehrstuhl Wirtschaftsinformatik I, Germany 275 Whereas the details of computer supported collaborative work (CSCW) in a corporate context have been widely researched, there is very little literature on research collaboration and supportive applications. If research collaboration has been examined at all, focus has been nearly exclusively on natural science [4, 11]. However, social sciences like economics, less characterized by the need for expensive equipment, have not yet been addressed in detail. Accordingly, a deep understanding of the potential to support virtual research teams of all fields by the use of software applications is still lacking. To close this gap, we aim at gaining a clearer understanding of how collaborative research projects work, comparing the status quo with the requirements of the researchers. Our research consequently explores the overall research questions: "Which are the necessary support functions to virtual teams doing collaborative research? Which kind of software provides these support functions?" We address our research questions by a qualitative approach in the German research landscape. This setting is particularly suitable to gain first insights as German state agencies like the German Federal Ministry of Education and Research (BMBF) require their sponsored member organizations (e.g. Fraunhofer) to build research collaborations with other institutions and cooperate with the industry [2]. Also by their funding policy, the BMBF as well as the German Research Foundation (DFG) strongly encourage collaborative and interdisciplinary research programs [6]. In the German research landscape, so-called collaborative research centers (SFB) play an important role. As denotes their name, these collaborative research projects promote collaborative interdisciplinary research; they usually consist of different departments from up to three universities. Collaborators on different academic levels are jointly working towards a common goal (typically defined by a project definition) and share knowledge as well as resources to reach this goal [9]. In these projects, research collaboration is flanked by administrative tasks, e.g. documentation of results for dissemination, coordination of meetings, and networking with representatives of the funding institution. These elements of communication, coordination and cooperation are classified to be weaker occurrences [5] as well as prerequisites for successful collaboration [19]. Communication comprises the exchange of information while coordination regulates task assignment and further elements to reach efficient organization. Finally, cooperation means "playing in the same game with others according to a set of behavior rules" [5] and thus sets the framework for interaction. The paper proceeds as follows: the next section provides the theoretical background on the research process as well as on virtual teams. It shows first findings on potential support functions on both the individual and team level of collaborative research. We then describe the methods we used in the data collection and analysis phase, and subsequently present our findings and a model derived from theory and empirical findings. 2. Research Process & Virtual Teams – Foundations To develop the knowledge necessary to better understand the (IT supported) interaction of virtual teams in collaborative research, we started from existing knowledge on virtual teams, research collaboration, and the young strand of research on so-called web 2.0 applications. Literature characterizes virtual teams by a dispersion of the team members across geographical, temporal, and organizational boundaries, with members often coming from different backgrounds of expertise and sharing interdependent goals [10, 15, 24]. Communication between team members is usually mediated by technology that pertains to the area of computer-supported collaborative work, or more recently, social software. Research partners consequently form a virtual team if they work together with partners in other institutions and locations, striving to reach a common goal, e.g. a publication. Virtual teams have been widely researched in different contexts. Martins et al. [15] have adapted the inputs-processes-outcomes (I-P-O) model [8] popular in team research, to match the specific 276 characteristics of virtual teams. In this model, input factors like team size or technology influence the team processes (e.g. communication processes and interpersonal processes like trust). These, in turn, have an impact on team outcomes (affective outcomes like satisfaction of the team members as well as performance outcomes like the time required to fulfill the task). Hence, an optimization of team outcomes in virtual research teams is likely to be dependent on inputs and internal processes which form the behavior of the team members. Despite this broad and deep knowledge base on virtual teams, there is still the necessity to better understand both the individual research process as well as the team activities in order to identify support functions for virtual research teams. The research process of an individual researcher is conceptualized by Graziano and Raulin [7] as divided into different, mutually interdependent phases. They have proposed a comprehensive and generic model of this process (see figure 1). Due to its generic character, this model with its seven phases is supposed to be applicable for research projects of all domains. Figure 1: Research Process [7] The first phase, idea generation, deals with the identification of topics of interest; hence creativity, literature review and communication with peers are important drivers [7]. The following problem definition phase focuses these rather broad and fuzzy ideas into precise research questions [7, 28]. Procedures design encompasses all activities concerning the preparation of data collection, i.e. definition of research design and methodology. The following phase is called observation. By this rather specific denotation, the authors summarize different methods of data collection. Quantitative or qualitative analysis of collected data is the major task of the subsequent data analysis phase. During the interpretation phase, the results are related to the research question and contribution to the targeted knowledge bases is identified. In the communication phase, research results are distributed to share and transfer knowledge; communication is typically done by publications and conference attendance. Building on the model of research phases, adapted from Graziano and Raulin, Yao and Tang [23, 28] identified five support functions that can facilitate the research process, i.e. exploring support, retrieval support, reading support, analyzing support, and writing support. These support functions can be provided by software tools. While exploring support helps to identify relevant work of fellow researchers, the task of retrieval support is to find necessary literature to the topic [23]. Reading support can take place in the form of support for linking information fragments and making notes [23]. Besides the analyzing tools themselves, providing suggestions on methods and how they should be used, is one of the tasks of analyzing support. Writing support extends from automatic correction to suggestions for possible references, as well as systems that support citation. Collaborative research projects encompass parts or the entirety of the individual research process from idea generation to communication of results; in addition, activities related to the (virtual) research team are necessary, e.g. coordination of meetings and efficient as well as effective communication. Also, these team support functions can be improved by appropriate software tools, e.g. weblogs and wikis [20]. Weblogs and wikis belong to the group of webbased software applications which are denoted as social software. This term became popular with the advent of web 2.0 and is nowadays used for a multitude of applications that allow direct or indirect interaction between users and also enable representation and support of users’ relationships on the web [12]. Besides the already mentioned weblogs and wikis, social software tools include social networking services, collaborative filtering, social bookmarking, and a broad range of further tools [3]. Social software has recently received attention from the community of information systems researchers, 277 not least because social software relates to the original idea of the World Wide Web, i.e. to enable discussions within scientific communities and sharing of ideas [3]. Hence, first ideas on the potential of social software tools to support one or several phases of the research process can be found in literature. Yao [26] suggests the use of weblogs as a research diary that allows for a documentation of the research process. The commenting function of a weblog can help at the same time to further explore and develop ideas by the integration of colleagues or other experts in the individual research process [20, 26]. Beyond this use of weblogs as exploring support, they can also provide retrieval support. For example, by hyperlinks in the related posts that directly point to related websites, a network of indirectly related knowledge sources can be easily maintained and tapped [26]. Social bookmarking not only provides retrieval support, but also reading support since it establishes logical connections of different articles [26, 27]. Social software applications like Many Eyes2 are useful tools for analyzing support as they help interpret statistical data. Eventually, writing support could take place by the use of wikis that allow for collaborative editing of documents and at the same time could serve as an additional communication channel [25]. As has been shown, there are considerations in research on the necessity to particularly support virtual teams. In this context, social software has come into focus of attention. Due to its main advantages, ease of use [12] and often low cost (stemming from its open source nature), social software is suitable to realize the support functions. However, there is still need for an analysis that shows which support functions are required most in virtual research teams. We consequently aim to gain a better understanding of the characteristics of the research process in virtual research teams. Thus, we identify areas where social software can potentially provide support to the individual researcher as well as to the virtual research team. 3. Data Collection & Analysis To gain a deeper understanding about the characteristics of the research process in virtual teams and their requirements of support, we chose an explorative research approach. As empirical field, we examined seven German institution-spanning collaborative research projects. These research projects were publicly funded with project duration of three years each. Collectively, they represent a total budget of about ten million Euros, with partner institutions covering Southern, Middle and Eastern Germany. Taking into account the amount of competence and budget associated with these projects, a closer look at their inner workings and in particular their required support functions promises to provide interesting insights. We proceeded by interviewing researchers in collaborative projects who were at PhD level (ten interviewees) and postdoctoral level (four interviewees). The interview candidates were chosen due to their membership in collaborative, private public partnership research projects focusing on applied research. They hold jobs as university-employed researchers in the area of economics, business information systems and computer science. All interviewees had two to four years of experience as researchers in their field. We conducted half of the semi-structured interviews faceto-face, the others via telephone. The interviews were all recorded and transcribed. The transcripts provided the basis for our in-depth analysis. Following the content analysis procedures to code data [18], we structured our data according to the seven phases of the research process as proposed by Graziano & Raulin [7] as well as according to the five support functions identified by Yao and Tang [23, 30]. All data were coded independently by three parties and then compared, using a process of analyst triangulation [29]. 2 Further information available online at http://services.alphaworks.ibm.com/manyeyes/home (2008/11/11). 278 A cross-examination of both data sets led to a gap analysis and identification of additional areas of support. In this interpretative approach to data analysis, we used Atlas.ti, a computer assisted qualitative data analysis software package [13]. 4. Findings Our data show that during their research process, virtual research teams need support on two levels. We found evidence for the five functions of research support as identified by Yao [28] in the research process of individual researchers. In addition, we identified a crucial need for support concerning the collaborating research team – e.g. support for communication or coordination. The subsequent figure shows our framework of research support functions, combining different support functions on both individual and team level. While we separate support for the individual and team level, there are also interdependencies between these levels. For example, social bookmarking services (e.g. del.icio.us3), provide both, support for the individual researcher (collection support) as well as support for the entire team (awareness support). These interdependecies were not regarded in detail in this study. The framework of research support functions is presented below. Figure 2: Framework of Research Support Functions From several interview statements, we conclude that support for goal alignment throughout the entire research process is crucial. Contrary to expectations at the official start of the research projects, perceptions of collaborating researchers regarding the research problem heavily differ. The project was defined - which does not mean that each member knew what he had to do.4 [Interviewee D; TL1]5 Every project partner had a different conceptualization of what was to be done. [Interviewee A; TL1] What you want to do does not entirely fit with what the project partners would like to have done. [Interviewee B, TL1] 3 4 5 Further information available online at http://delicious.com (2008/11/11). All interviews were conducted in German language. Interviewees’ statements have been translated into English. For reasons of privacy, we have used an alphabetical coding scheme to identify interviewees. Team level has been abbreviated to TL, individual level to IL. The issue domain numbers (e.g., TL1) identify both the level and the issue to which a quote refers. The issue numbers for team level are 1, goal alignment; 2, communication; 3, coordination; 4, awareness. The issue numbers for individual level are 1, exploring; 2, retrieval; 3, reading; 4, collection; 5, analyzing; 6, interpretation; 7, writing; 8, dissemination. 279 From our data we conclude that continuous and iterative goal alignment is an important antecedent of successful collaborative projects. We hence introduce a team-level support function goal alignment support. Social software can provide goal alignment support by a platform that enables convergence of opinions by unhindered information flow. Technical solutions can be helpful in this context, especially wiki systems as a central information base: Our goal alignment could have been improved by using a wiki, if the partners had documented what they were thinking so that a convergence would have been possible. [Interviewee A; TL1] We see our wiki as a central repository for any information in the project. [Interviewee E; TL2] The individual research process starts with idea generation and problem definition, when individual researchers have a strong need for exploration, retrieval, and reading support. This support is necessary to facilitate gaining ideas and directions for new research based on previous research, which implies a lot of browsing, finding and reading sources. Access to relevant information is a central requirement that researchers have: Not always all necessary information had been readily available, so there were a lot of requests by phone and a loss of time. A central collaboration platform would have been very helpful. [Interviewee L; IL2] In addition, we found that social software tools can provide support, either by provisioning a repository or by communication tools that are easy to use: We set up a wiki to collect information in one place. [Interviewee E; IL2] We also worked a lot on a peer-to-peer basis, mostly using instant messaging. [Interviewee G; TL2] We have been using del.icio.us as a social bookmarking solution - we set up a joint account for the team and tagged any Internet sources that seemed relevant to provide them to the team. [Interviewee I; IL2] For the phases of procedures design and observation in which the researcher has to select specific procedures he wants to apply, as well as conducting the actual observations, Yao does not mention a dedicated support function [28]. Procedures design is of major importance to every collaborative research project. As one researcher put it: The survey design was harmonized in workshops, [for this task] it is necessary to sit next to each other [Interviewee C; TL2] Having completed the procedures design phase, the individual researchers in the team turn to observation, i.e. data collection, an activity often dependent on the industry partners' willingness to cooperate. Motivation was blemished because of one industry partner who did not deliver data / results. [Interviewee D; IL4] Our partner from the industry also had a high interest in the empirical results; therefore they were willing to provide us with the data. [Interviewee C; IL4] Support for observation is not explicitly mentioned among the five support functions identified by Yao [28]. We found that problems between partners arise very often if partners from industry do not deliver the needed empirical data. We therefore add collection support to the individual support functions. Transforming data collection in a peer-based approach, e.g. by collectively writing case studies, supports the individual researcher. Approaches to collective data collection in the natural 280 sciences have been quite successful: "Swivel"6 for example allows exploring data and statistics of other peers. The above mentioned collaboration in procedures design and observation highlights two further decisive team activities, coordination and communication. Mostly, meeting coordination was handled by communication via email and telephone, with some projects utilizing specialized software like "doodle"7. Feedback on these approaches to coordination underlines the need for coordination and communication support, for which web 2.0 tools appear suitable: Coordination was primarily performed by email, but had a lot of problems, since a lot of team members did not respond at all, so we had to call by phone in addition to that. [Interviewee G; TL3] We liked doodle for appointment coordination. It is easy and fast. [Interviewee D; TL3] The subsequent phases of data analysis can be directly linked to analyzing support. In this phase, results from the previous phases are processed using qualitative or quantitative methods. There are specialized tools that facilitate utilization these methods which usually require specific knowledge to make full use of them. Interviewees stress the proposition by Yao [28] to provide information on which tools and methods to use best as well as an explanation feature that helps in their utilization: It is a major problem to find the method you use best. I felt like guessing. [Interviewee C; IL5] A general collaboration area or a knowledge base, like a wiki, might be helpful for collaborating researchers to exchange information and question regarding usage of the tools. The subsequent phase of interpretation needs additional, dedicated support, i.e. interpretation support. In this phase, it is helpful to use technical means promoting discussions between researchers. A central storage of potential interpretations in a wiki system, for example, makes them available within the team and allows for discussion. Collaboration functioned especially well when there was a lot of interactivity between members. [Interviewee C; TL2] There was a lack of trust and awareness of what the others were doing in and with the project [Interviewee A; TL4] Occurring problems could be discussed not only with research partners within the collaborative project, but also with other experts of the domain. In chemistry, this already takes place in "usefulchem"8, an open source science project to discuss specific problems that need solutions. The final phase of communication is concerned with dissemination of the results and lends itself naturally to writing support. This comprises firstly writing and secondly the publication and dissemination. In terms of collaborative writing, use of traditional communication media leads to dissatisfaction, while the use of shared documents applications, e.g. "zoho"9 seems to be promising: Sending documents with comments by email is far from ideal – version management is hard. [Interviewee E; IL7] We used google docs - a far better experience than sending documents with changes. Also, motivation seemed to be higher – simultaneous work on a document conveys team feeling. [Interviewee M; IL7] 6 7 8 9 Further information available online at http://www.swivel.com (2008/11/11). Further information available online at http://www.doodle.ch (2008/11/11) Further information available online at http://usefulchem.wikispaces.com/ (2008/11/11). Further information available online at http://www.zoho.com (2008/11/11) 281 Beyond its usefulness to support communication, collaborative writing enhances transparency and thus awareness about the activities and state of project partners’ work. Our data shows the importance of awareness throughout the entire project: We set up a homepage to generate a form of awareness of what the others are doing. [Interviewee A; TL4] It would have eased work if progress of team members could have been made publicly visible. [Interviewee B; TL4] Awareness was seriously disturbed in our project – the fact that there was a (potentially helpful) wiki system was announced two days previous to our final meeting. [Interviewee B; TL4] We consequently introduce awareness support as an additional team-level support function. This support function has been shown to be provided for by web 2.0 tools. For example, "OpenWetWare"10 is an effort to promote sharing of information, know-how, and wisdom among researchers and groups who are working collaboratively in the field of biology. Our empirical results have revealed the need for support functions, both at the team level as well as on the level of individual support. We have shown that social software can provide these support functions by its capabilities to facilitate direct and indirect interaction between researchers as well as representation and support of their relationships [12]. We condense our insights to the proposition of a name for virtual research teams collaborating with support of social software: Open Research. We define Open Research as collaborative research by actors that are distributed among different institutions, locations and hierarchical levels. The research work is supported by tools that support information distribution, communication, coordination and collaboration across different time horizons. A central characteristic of Open Research is the opening of research work to existing and potential partners in and outside the own project, and the integration of a number of continuously developed (social software) tools to support the research. We propose a need to further study this phenomenon in detail. 5. Discussion In order to support virtual research teams in their process of Open Research we learned that a systematic approach to the collaboration process is needed. Our data suggest a bisected process with an individual and a team level (each characterized by particular characteristics) for which we have proposed an enhanced framework combining previous work and our findings. The interdependencies between the individual and the team level need a closer look in future research. We have highlighted the different support functions which are necessary to virtual research collaboration as well as indicated the potential of social software tools to facilitate these support functions. Results of our research have to be tempered with its limitations. In order to gain a first insight, we examined a limited array of projects. Further research on Open Research might focus on projects with different funding structures, including more academic levels (PhD candidates, postdoctoral researchers, and full professors), and additional types of collaborators, e.g. industry partners. We estimate that different contexts of Open Research will lead to different requirements for support functions, both on the individual and team level. 10 Further information available online at http://openwetware.org/wiki/Main_Page (2008/11/11). 282 6. Acknowledgment We want to thank Michael Koch, Florian Ott and Alexander Richter, Universitaet der Bundeswehr Muenchen, for their contribution and feedback to this work. This research has been funded by the Donors’ Association for the Promotion of Sciences and Humanities in Germany, the Federal Ministry of Education and Research (BMBF), and the European Social Fund (ESF) under HHL’s Open School Initiative and within the project “2nd Tech-Cycle” (Förderkennzeichen: 01FM07109). The authors would like to thank their interview partners for their willingness to participate in this research. We also want to thank our anonymous reviewers for their valuable comments and suggestions. 7. References [1] BEAVER, D.de B., ROSEN, R., Studies in scientific collaboration: Part I - The professional origins of scientific co-authorship, in: Scientometrics, Vol. 1, No. 1, (1978), pp 65-84. [2] BUNDESMINISTERIUM FUER FORSCHUNG (BMBF), online available at http://tinyurl.com/5nkjnx (2008/07/30) [3] BOULOS, M. N. K., WHEELERT, S., The emerging Web 2.0 social software: an enabling suite of sociable technologies in health and health care education, in: Health Information and Libraries Journal, Vol. 24, No. 1 (2007), pp 2–23. [4] CHOMPALOV, I., GENUTH, J., SHRUM, W., The organization of scientific collaborations, in: Research Policy, Vol. 31, No. 5 (2002), pp 749-767. [5] DENNING, P. J., YAHOLKOVSKI, P., Getting to “WE” – solidarity, no software, generates collaboration, in: Communications of the ACM, Vol. 51, No. 4, (2008), pp 19 – 24. [6] DEUTSCHE FORSCHUNSGEMEINSCHAFT (DFG), online available at http://tinyurl.com/5bksl5 (2008/07/30) [7] GRAZIANO, A.M., RAULIN, M.L., Research Methods: A process of inquiry, 6th edition, Allyn and Bacon, Boston 2007. [8] HACKMANN, J. R., MORRIS, C. G., Group tasks, group interaction process, and group performance effectiveness: A review and proposed integration, in: L. Berkowitz (Ed.), Advances in experimental social psychology (Vol. 8, pp 45–99), Academic Press, San Diego 1978. [9] HARA, N., SOLOMON, P. KIM, S.-L., SONNENWALD, D. H., An emerging view of scientific collaboration: Scientists’ Perspectives on Collaboration and Factors that Impact Collaboration, in: Journal ot the American Society for Information Science and Technology Vol. 54, No. 10 (2003), pp 952 – 965. [10] HERTEL, G, SCHROER, J., BATINIC, B., NAUMANN, S., Do shy people prefer to send e-mail? - Personality effects on communication media preferences in threatening and non-threatening situations, in: Social Psychology (forthcoming); available online at: http://tinyurl.com/4jw62h [11] HEINZE, T., KUHLMANN, S., Across institutional boundaries? Research collaboration German public sector nanoscience, in: Research Policy, Vol. 37, No. 5 (2008), pp 888-899. [12] KOCH, M., RICHTER, A., Enterprise 2.0 - Planung, Einführung und erfolgreicher Einsatz von Social Software in Unternehmen, Oldenbourg Verlag, München 2007. [13] LINDSAY, V.J. Computer-assisted qualitative data analysis: application in an export study. In Marschan-Piekkari, R. and Welch, C. (eds) Handbook of qualitative research methods for international business (pp 486-506), Edward Elgar, Cheltham 2004. 283 [14] LUUKONEN, T., PERSSON, O., SIVERTSEN, G., Understanding patterns of international scientific collaboration, in: Science, Technology Human Values, Vol. 17, No. 1, (1992), pp 101 – 126. [15] MARTINS, L. L., GILSON, L. L., MAYNARD, T., Virtual Teams: What do we know and where do we go from here? in: Journal of Management, Vol. 30, No. 6., (2004), pp 805 – 835. [16] MATTESICH, P., MONSEY, B., Collaboration: What makes it work? A review of the literature on factors influencing successful collaboration, Amherst H. Wilder Foundation, St. Paul, MN 1992. [17] MAY, R. M., The scientific wealth of nations, in Science, Vol. 275, No. 5301, (1997), pp 793 – 796. [18] MAYRING, P., Einführung in die qualitative Sozialforschung: Eine Anleitung zu qualitativem Denken, 5th edition, Beltz Verlag, Düsseldorf 2002. [19] RASHID, A., BEHM, A., GEISSER, M., HILDENBRAND, T., Kollaborative Softwareentwicklung – zum Kollaborationsbegriff, available online at http://tinyurl.com/69moq3 (2008/07/28) [20] SAUER, I. M., BIALEK, D., EFIMOVA, E., SCHWARTLANDER, R., PLESS, G., NEUHAUS, P., “Blogs ” and “ Wikis ” are valuable software tools for communication within research groups, in: Artificial Organs, Vol. 29, No. 1, (2005), pp 82 – 89. [21] SCHRAGE, M., No more teams: mastering the dynamics of creative collaboration, Currency and Doubleday, New York 1995. [22] SONDERFORSCHUNGSBEREICH (SFB), available online at http://tinyurl.com/35hzae (2008/07/29) [23] TANG, H., WU, Y., YAO, J. T., WANG, G., & YAO, Y. Y., CUPTRSS: A web-based research support system, Proceedings of the Workshop on Applications, Products and Services of Web-based Support Services, Hallifax, Canada, (2003), pp 21-28. [24] TOWNSEND, A. M., DEMARIE, S. M., HENDRICKSON, A. R., Virtual teams: Technology and the workplace of the future, in: Academy of Management Executive, Vol. 12, No. 3, (1998), pp 17–29. [25] WAGNER, C., Wiki: A technology for conversational knowledge management and group collaboration, Communications of the Association for Information Systems, No. 13, (2004), pp 265- 289. [26] YAO, J. T., Supporting Research with Weblogs: A study on web-based research support systems, The 3rd international workshop on web-based research support systems, HongKong, China, (2006), pp 161-164. [27] YAO, J. T., & YAO, Y. Y., Web-based Information Retrieval Support Systems: Building research tools for scientists in the new information age, Proceedings of the IEEE/WIC International Conference on Web Intelligence, Halifax, Canada, (2003), pp 570-573. [28] YAO, Y. Y., A framework for web-based research support systems, Proceedings of the 27th Annual International Computer Software and Applications Conference, Dallas, USA: IEEE Computer Society (2003), pp 601-606. [29] YIN, R. K., Case study research - design and methods, Sage Publications, Thousand Oaks 2003. 284 NON-OPTIMIZED TEMPORAL STRUCTURES AS A FAILURE FACTOR IN VIRTUAL TEAMS Felix Köbler1, Marilyn Tremaine2, Jan Marco Leimeister3, Helmut Krcmar1 Abstract Despite the expected benefits of global virtual teams, their performance has been spotty and management continues to search for reasons why these teams fail. This work addresses this issue by performing a longitudinal case study of two virtual teams in order to uncover why one was more successful than the other. The study found that a key factor for one team’s poor performance was the entrainment of the temporal norms of both the countries and the social situations of the members that reduced the available real time meeting space to zero. 1. Introduction A number of co-occurring factors have led to the development of global software teams. These include the exponential development and diffusion of communication and collaboration technology, the availability of well-educated software personnel in countries where the cost of labour is far below that of western countries, the growth of multi-national organisations with large amounts of investment capital, the flexibility of government policies that encouraged investment in offshore projects and the emergence of new global markets that led to an organisation’s desire to establish a workforce in the emerging market countries. One answer to these changes is a team-based concept the virtual team [12]. A virtual team is defined as a set of geographically dispersed knowledge workers that interact through interdependent communication and coordination processes. These processes are facilitated through information and communication technologies, to achieve a specific goal in an environment that is affected by physical (space and time) and social (organisation and culture) dimensions [7] [22]. Virtual teams are said to combine flexibility, responsiveness, lower labour costs, specific task foci and improved resource utilisation necessary to survive and gain competitive advantage in today’s turbulent, and dynamic, global business environments [15] [16] [19] [21] [22] [24] [27]. In addition to these factors, there exists the underlying belief that much technical work can be adequately pre-specified so that virtual distributed teams are a successful and cost effective strategy [3]. However, the expected benefits from global software development teams 1 Chair for Information Systems, Technische Universität München, Boltzmannstr. 3, 85748 Garching, Germany 2 CAIP - Center for Advanced Information Processing, Rutgers University, 96 Freylinghuysen Road, Piscataway, NJ 08854-8088, USA 3 Chair for Information Systems, Universität Kassel, Nora-Platiel-Str. 4, 34127 Kassel 285 have not always been achieved [4] [6]. Virtual distributed teams are found to cause significant leadership and organisational challenges, for example, a loss of trust arising from cultural misunderstandings, large communication difficulties as a result of both language differences and inexact work specifications [16] and work overloads caused by time zone differences [18]. Studies have shown that some teams work and achieve their desired goals, but that others are bogged down in problems [17]. Thus, it is important to know what causes failures in virtual teams in order to avoid such pitfalls. This work investigates possible causes for failures through a longitudinal study of two virtual teams, one which has maintained its momentum upon becoming virtual and the other which has not. The teams have many characteristics in common, in particular, the same manager and a similar membership composition. Additionally, both teams were running successfully in face-to-face mode until relocation of the team manager caused the teams to become virtual. The case study performs an ethnographic analysis of the two teams and carries out explanation building on multiple dimensions to determine what characteristics of the teams might have led to their success and failure [10] [11] [26]. The analysis is one of hypotheses building from information captured on the organisation, communication, member characteristics and management of each team. One surprisingly simple failure factor that the analysis uncovered was the failure of the unsuccessful team to find a suitable meeting time. The paper is organized as follows: First, a review of current research on temporal structures and norms and their entrainment of individuals is presented along with a small number of studies that have looked at the influence of time zone differences on virtual team environments. This is followed by a detailed description of the two teams involved in this case study. The data collection and explanation building approach is then described followed by a presentation of the study’s findings. The implication of the findings for virtual team management follows, and the paper concludes with the limitations of the research method chosen and a statement of the research’s contribution. 2. Related work Because teams are increasingly spread over different time zones, coordination and control problems arise that are related to the decreasing amount of temporal overlap between team member’s working hours [5]. This is referred to as the temporal distance between team units. The impact of temporal distance on personal life disruption has been found to be significant [9]. A second body of literature deals not with temporal distances but with the inherent temporal structures and norms that have been found to impact organizations. These structures and norms have been found to inadvertently interact with each other creating significant work interruptions and conflicts across organisational units [1] [2]. If such impacts are found in co-located units, it can be hypothesized that such temporal structures and norms are likely to differ widely between locations that are not temporally co-located and to therefore impact the temporal distance between members of a virtual team even more. Table 1 presents definitions and examples of temporal norms that are commonly found in organisations. 286 Term Definition Example Temporal Norm Culturally unstated time lags or time usage, created and accepted by a large group of members in human society The normal promotion time in Company A is three years; Meetings never last more than 1 hour in Company B. Temporal Structure Patterned organization of time, used by humans to help them manage, comprehend or coordinate their use of time. This pattern can be an individually created pattern or one agreed upon by a larger group of individuals. Status meetings take place every Monday at 5 PM Socio-temporal Norm Socially-based temporal norms, adopted by a large group of individuals, usually part of a culture or sub-culture Individuals never work on Saturday (Sabbath) in Israel Table 1: Definitions of the terms in adaptation of Wu [25] Im et al. [14] in his investigation of a global software development team, found that the team gradually evolved a set of temporal boundaries and time management practices that helped the team coordinate itself asynchronously and cope with locally entraining temporal structures. Edensor [8] demonstrates that nationalities have well defined temporalities that are found in the institutional times and everyday routines of each country. Thus, anytime a temporal distance crosses national boundaries, this crossing alone is likely to impact coordination simply because of team members’ different senses of time and time rhythms that are found in each country. In particular, if there is a need for real-time communication, the temporal overlap is likely to be even less than the temporal distance suggests. This work will focus on the impact of nationally driven and personal temporal structures becoming an important factor in the ability for the temporally distant teams studied to establish real time meetings. 3. Research Entities The research case is built on two virtually distributed teams, the Research Instrument team (RIteam) and the Software Development team (SD-team). The RI-team is defined as the successful team. The SD-team is labelled as the unsuccessful team. Both teams were academic research teams that met weekly in a university conference room. Both teams consisted of graduate students and a faculty member who guided the activities of the teams. The teams went virtual when the leader of the two teams took a sabbatical in Europe for one year. It was arranged to continue the once a week research meeting with each team via a voice over IP setup. The teams met virtually from May 2006 until May 2007. 3.1. The Research Instrument Team Historically the RI-team emerged out of a doctoral research seminar. A sub group formed in January 2006, that began having additional meetings that focused on studying global software development. This sub group consisted of four members, two faculty and two graduate students. The team leader was the advisor of both graduate students. Face-to-face meetings were held weekly for two hours in a university seminar room. Occasionally, a rotational sequence between the three universities involved in the research facilitated the participation of the team members in meetings, as team members were distributed over a 200 km2 area. The advisor met separately each week with each of the Ph.D. students. The RI-team’s gender was equally divided (one female and male Ph.D. student), one female professor (the thesis advisor) and one male professor (who served as an external member on the students’ thesis committees). The team was headed by the female professor with the support of the male professor. The team is dominated by American culture, with one exception; the female Ph.D. student is from mainland China although she had been in the U.S. for six years at the beginning of this study. 287 The key research activity of the RI-team was in conducting interviews and a survey within a Fortune 100 company. As such, this team focused much time on the development of their measurement tools, e.g., the interview guide and the survey. The original purpose of the RI-team was to generate research that formed two theses and a series of journal and conference publications. Only one of the team members is tenured so that publications in good places are very important to all team members. The team focused on one company initially but has now expanded to conduct research in multiple companies. The team continues to work together on new research questions that arose while conducting the original research. 3.2. The Software Development Team The SD-team began its existence in November 2003. The focus of the SD-team project was to develop a portable interface that read online information to blind users, that was cheap to buy and that was easy to use. This interactive system for visually impaired/blind users would allow users to listen to online newspaper articles and books through a personal data assistant and to manage their daily schedule and address book. The research also supported two Ph.D. dissertations of team members. The advisor met separately weekly with each of the Ph.D. students. Because of additional interest in the project from two Master’s students, a research team was formed to focus on developing the browsing tool in a form that was robust enough to allow a public downloadable release of the system. The team met two hours weekly in the evenings in a conference room at the university. All team members were part of the same university and lived close enough to the university to make the commute to the meeting comfortable. This team was very social and occasionally set up additional social nights in which team members were joined by their significant others for dinner. Pizza and soda were served at all meetings and individuals took on rotating responsibility for bringing the food to the meetings. From the starting point of team formation, the SD-team consisted of five members. Two of the team members were Ph.D. students (one Chinese female and one American male). Two of the team members were Master’s students (both were American males). The team leader (professor) was female. One of the Master’s students was motor-disabled and came to the meeting with a special van and a motorised wheel chair. Additional to shared tasks such as web page design and research paper writing, the team members can be divided around two centres of activities: (1) software development and (2) user interface design. The software development unit contained three individuals: a junior (male Master’s student) and senior software developer (male Ph.D. student) and a web developer who was also occasionally occupied with software development tasks (male Master’s student). The interface design unit consisted of a user interface designer who was occasionally occupied with web development tasks (female Ph.D. student) and the team leader (female professor). It should be noted that unlike the work conducted with the RI-team, the two Ph.D. students on the project were working on theses that were related to the project but neither fully needed the project for the completion of their research. The major motivation for this project was to develop a usable system for the blind. 4. Research Methodology The longitudinal case study used inductively interpretive hypothesis generation and an explanation building process following the descriptions of Glaser and Strauss [11], Yin [26] and Eisenhardt [10]. The starting point of the theory building, is as close as possible to the ideal of no theory under consideration and no hypotheses to test on the specific case [10]. For the initial semi-structured interview with the manager, an interview guideline was iteratively created. The initial interview guideline consisted of four main question types: organisational, leadership/managerial, motivational and course/process. These question types later outlined the dimensions of the analysis 288 framework, which developed a grouping of findings around the question types possible. The interview and discussions with the manager generated macro-organisational and -managerial information for both teams. The information was used to sharpen the dimensions of the analysis framework and to add or delete questions to create a new interview guideline. After the initial interview, findings were clustered around 12 dimensions: (1) team organisation, (2) sub team formation, (3) management style, (4) team processes, (5) communication technology, (6) member motivation, (7) amount/type planning, (8) member contributions, (9) inter-member trust, (10) socialization practices, (11) team culture and (12) time behaviours. Each conducted interview and its analysis served as input to sharpen the above dimensions and refine the interview guideline for subsequent interviews, which questioned prior found evidence. Interviewed team members frequently used words, phrases and stories, which played a key part in the identification of the concepts and themes that integrated the data into the framework being constructed [20]. After each interview the researcher listened to the recorded interview, created transcriptions and formed hypotheses, which linked data to the prior propositions. Generated hypotheses were grouped into the dimensions of the framework as nullifying and supporting information was collected. Each forming hypotheses was marked with the team’s and respondent’s name, to trace the information stream. Hypotheses either explained the success or the failure of both teams. Evidence hypothesising the failure of a virtual team came primarily from SD-team interview data, while success explaining evidence was derived from RI-team interview data. In some cases, the findings in the failing team amplified findings of success in the successful team, and vice versa. This process was continued until all interviews were conducted and analysed and a level of theoretical saturation was established. Before the beginning the analysis of the data, three assumptions needed to be clarified: (1) the assumption that one team was a success and the other a failure; (2) the assumption that the teams were similar in makeup; and (3) the assumption that the tasks accomplished by the teams were similar in complexity. The latter two assumptions need to be justified because it can be argued that inherent team differences in their composition or tasks could have caused one virtual team to fail rather than what is being argued in this paper, the impact of the non-optimized overlap of temporal norms. The first assumption needs to be justified because the failing team did not actively fail but lost momentum. Eventually the team was shut down by its leader because of the slow product output and the lack of attendance at the real-time meetings. Success was measured in team performance, team adherence to deadlines and team member attendance at meetings. Team performance is the ability of the team to deliver timely, high-quality products [22]. The RI-team set goals and deadlines agreed upon by all members and then worked to achieve these goals. The goals were not changed. In contrast, the SD-team set initial goals and then met and changed the goals to reduce the amount of work they needed to do to meet a deadline. After a variety of meetings in which progress was halted because key team members were not in attendance, the team leader decided in a discussion with the lead system developer to put the team meetings on hold. They have not been restarted. The two virtual teams were chosen as research units because it was believed that they had a high overlap in management and member characteristics as described in the previous section. The key differences between the teams were the following: (1) One team had two professors and the other team had two Master’s students as members. It is argued that the senior software developer replaced the role of the second professor in the SD-team because of his age and 20 year expertise associated with the task of the team. (2) The teams differed in number of members but the female Ph.D. student on the SD-team rarely attended the face-to-face meetings in the final year before the project went virtual. She never attended the virtual meetings. (3) The teams had different tasks. It is 289 argued that both tasks required significant creativity, problem solving and detailed communication exchanges so that running either meeting virtually was difficult. The teams only differentiated in their academic orientation and work assignments. In contrast to the RI-team, where the project work was centred around two dissertation projects, the individual motivation in the SD-team was based on interest in the team task and a high level of camaraderie amongst the group members. Table 2 shows collected and analyzed data sources that were used in conducting the case study. (Note: It was not possible to attend the SD-team meetings because at the time this project began, the SD-team was having trouble finding a viable meeting time for all members. Research Instrument team (internet-based group), internet-based calendar and email documents (417 emails) Archival records Interviews semi-structured interviews (6 hours 49 minutes) Software Development team (internet-based group), internet-based calendar semi-structured interviews (5 hours 2 minutes) seven months (30 hours) Table 2: Data sources underlying each research unit Participatory observation 5. Findings pre-recorded semistructured interviews (3 hours 48 minutes) - One of the key difficulties that the SD-team was found to encounter was an inability to maintain momentum because they could not find a suitable meeting time. The support for this is presented in the next set of paragraphs. Figure 1 displays the availability for virtual team meetings in the SD-team, while Figure 2 maps the individual availability/temporal structures for virtual team meetings in the RI-team. The patterns denote the type of availability of individuals. The upper time slot line shows the availability of the manager, while the line underneath displays the overall availability of the team members. Times are adjusted according to the underlying time difference of six hours between the manager and her team (GMT+5 – GMT-1). The data is derived from interviews, a shared online calendar of the team manager and meeting minutes of both teams. Non-availability (leisure) status includes commuting, leisure and sleeping/recreation times of individuals (influenced by individual temporal structures and norms). The non-availability (work) describes the state of individuals being required to perform other job related activities and not being available for virtual meetings. Restricted availability includes situations in which individuals are able to join virtual meetings by aligning or changing personal temporal structures (e.g. daily life patterns such as; waking up earlier, going home from work earlier, etc.). RI-team members were able to adjust their work availability and occasionally their personal life availability to create a window of viable real time meetings. The SD-team attempted to hold their weekly meeting on Friday at 7:00 (GMT+5) or on Wednesday at 18:00 (GMT+5). The graphical plot of individual availability on adjusted time zones shows that the 7:00 time was the only available time for virtual meetings (see Figure 1). The 18:00 time was tried, but since internet connectivity was weak at home for the team leader and since the bus and subway stopped running after midnight, the team leader refused to sleep in her office or pay for an expensive taxi in order to hold these meetings, in particular, since team members often came late to the midnight meeting because of traffic conditions they encountered. 290 Figure 1: Availability of SD-team members on weekdays During weekdays, SD-team virtual meeting times were entrained by the different restrictive schedules of each team member. Two members had just started new employment and could not meet during their workdays. A third member was constrained by the waking time of his family because his disability required family intervention. The younger team members reported that the meeting time was too early in the morning, resulting in missed meetings. In addition, the time slot was one hour, which was further shortened by connection difficulties. In comparison the RI-team meetings lasted at least two hours (see Table 3). An analysis of the team minutes of both meetings showed that the SD-Team spent much of its time in review of what had been done so that little generation of new items was done. In contrast the RI-team spent much time generating new work and task assignments to resolve problems as they came up each week. Overall, the SD-team meetings suffered from (1) a lower degree of social and personal interaction, (2) lower social facilitation, (3) decreased exercise of managerial power and (4) decreased communication among members. A 12:00 (GMT+5) meeting was tried during the lunch break of the working team members but the constraints of other meetings at their workplace made attendance unpredictable. They were also too short. Saturday meetings were proposed but family schedules of team members made these meetings untenable. Insufficient length of meetings Interview evidence in the SD-team representative example count accepted count rejected “I think (the meeting) was a little bit to short (…) we did not have much 9 1 time in the morning (…) precisely one hour” Interview evidence in the RI-team representative example count accepted count rejected “Good length (of the meetings), there is a lot to cover (…)” 0 3 Note: The count accepted column refers to the number of interview statements that supported this evidence and the count reject column is the number of interview statements that refuted it. Table 3: Evidence on insufficient length of meetings In contrast, the team member individual time schedules in the RI-team held more possibilities for holding a virtual meeting at a time acceptable to all and with a reasonable meeting length. These meetings took place on Wednesday from 9:00 – 11:00 (GMT+5) / 15:00 – 17:00 (GMT-1). In some cases, these meetings lasted three hours. 291 Figure 2: Availability of RI-team members on weekdays Overall, three major differences were found between the RI-team and the SD-team in each team’s willingness to establish a viable meeting time: (1) the temporal structures affecting their daily lives, (2) the volunteer character of the project that made members unwilling to adjust leisure schedules significantly and (3) low age awareness. It is argued that the temporal norm effects on the daily life of team members were higher in the SDteam (see Table 4). First, more members were constrained by their work schedules because they had less flexible schedules than the RI-team. Secondly, because workday time could not be used for meetings, the personal life schedules of the SD-team began to interfere. In particular, early mornings and Saturday afternoon meetings did not map the life style of the younger team members. At least two nationally determined temporal norms also interfered, that is, the scheduling of public transportation and office closures in European countries. Table 4 lists the number of times an interview respondent indicated that a meeting time affected one’s personal schedule for both the RI and SD-teams. As can be seen, the meeting time schedule was barely mentioned by the RI-team. Meeting time schedule affecting on daily life Interview evidence in the SD-team representative example count accepted count rejected “I switched my lunch hour to get to the meetings” 10 0 Interview evidence in the RI-team representative example count accepted count rejected “It is a little bit earlier for me, but it has become a habit (meeting) so it 2 1 is good for me, I got used to it” Note: The count accepted column refers to the number of interview statements that supported this evidence and the count reject column is the number of interview statements that refuted it. Table 4: Discussion on meeting time affecting on daily life The second source of meeting scheduling conflict was the nature of the temporal structure constraints on the SD-team members. All but one member worked full time jobs and thus, their focus was on serving their employer first and the team, second. Work meetings and the use of work computers entrained members to not meet during the workday (8:00 to 18:00 GMT+5). In contrast, RI-team members were academics and the project was closely aligned to the team members’ careers. Therefore, RI-team members could join virtual meetings during their official work hours without having to adapt their personal schedules for team meetings. The third assumed reason is based on the higher age distribution in the SD-team. As the schedules for team meetings were significantly dominated by the manager and senior software developer, the time patterns agreed upon did not match the temporal norms of the younger members. The mismatch of scheduled virtual meetings and individual daily life patterns resulted in a low virtual meeting attendance. Low meeting attendance was also caused by frequent changes in virtual meeting days and times in an attempt to find a suitable slot. Team members were not able to adjust personal schedules to the 292 frequently changing virtual meeting patterns. RI-team members, in contrast, were able to adjust and align individual temporal structures on the basis of a frequent and regular meeting pattern. 6. Implication for the management of virtual teams The above described findings suggest implications for the management of virtual teams. Although employees are unlikely to skip scheduled meetings, these meetings are likely to interact with existing temporal structures and norms in an employee’s life and create significant time burdens on the temporally dislocated meeting attendee. In short, an individual may be there in body, but not in mind if the temporal disruption is large enough. Therefore, managers need to gain an awareness of the temporal structures and social-temporal norms of non-collocated sites in order to guarantee acceptable meeting time overlaps. Temporally entraining structures and social-temporal norms such as public transportation schedules, personal, local and national celebrations, school schedules, traffic congestion patterns and family sleep patterns can result in severe constraints on real time meeting times. In addition, individual daily life patterns vary because of gender, age and social group also affecting meeting attentiveness. Indeed, if anyone wishes to test this latter statement, all this person has to do is ask their graduate student to meet at 7:00. Virtual meetings for which attendance is voluntary are likely to wither if no satisfactory overlaps can be found for meetings between members. One attempt to overcome the low temporal overlaps that occur because of large temporal distances is the creation of a bridge that helps to span the time zones [13] [18]. However, as indicated in this study, it is not just the workday overlap that establishes the acceptable meeting times but a large collection of temporal norms that vary nationally and can readily reduce this overlap to zero. 7. Conclusion The hypothesis that highly constrained meeting opportunities in the failing team provides one explanation why this team did not succeed. The main contribution of the underlying work displays the negative impact of non-optimized adjustments of temporal norms, structures and socio-temporal norms between virtual team members. One recommendation for managers who plan and conduct virtual meetings on a global scale is to align (meeting) time profiles of team members to support critical minimum length meetings, meeting regularity and also minimal disruption of national established norms. This study is not without its limitations. First, it is a single case study of two teams run by one manager. These teams may have been unique because of their manager or because of the individuals that formed the teams. Thus, generalisations to globally distributed teams in industry may not be applicable. Second, the teams had student members. The students on the teams were Ph.D. or Master’s students, who had worked in industry previously, but there are good arguments made that students have different goals and are thus, not representative for industry settings [23]. However we argue that because the students had full time professional jobs and because all but one of the students was over 30, that they were representative of typical industry workers. But the volunteer character of the SD-team project differentiates this team’s temporal structures and norms from that of industry-embedded teams. Industry-embedded teams are aligned to temporal structures and norms through the corporate culture, e.g. office attendance between 9:00 and 17:00, which generates a common temporal frame and decreases problems with temporal entrainments. Third, the interest in understanding why teams fail comes from the issues in running globally distributed software teams. The teams studied were predominantly North American. Even foreign student members of the team had been accustomed to North American culture and socio-temporal norms, for some time. Thus, these teams did not represent the potential cultural conflicts that are predicted to happen in temporal norms and structures in global teams. Even so, this paper is the first to show the role of non-optimized temporal structures as a failure factor in virtual teams in a detailed analysis. 293 8. References [1] ANCONA, D.G.; GODDMAN, P.S.; LAWRENCE, B.S.; TUSHMAN, M.L., Time: A New Research Lens, in: The Academy of Management Review, Vol. 26, No. 4, pp. 645-663 (2001) [2] BLUEDORN A.C.; DENHARDT, R.B., Time and Organizations, in: Journal of Management, Vol. 14, No. 2, pp. 299-320 (1988). [3] BOEHM, B.W., Software Engineering Economics, Prentice Hall PTR, Upper Saddle River, N.J. 1981. [4] CARMEL, E., Global Software Teams: Collaborating Across Borders and Time Zones, Prentice Hall PTR, Upper Saddle River, N.J. 1999. [5] CARMEL, E.; AGARWAL, R., Tactical Approaches for Alleviating Distance in Global Software development, IEEE Software, pp. 22-29 (2001). [6] CARMEL, E.; TJIA, P., Offshoring Information Technology: Sourcing and Outsourcing to a Global Workforce, Cambridge University Press, Cambridge, UK 2005. [7] CASEY, V.; RICHARDSON, I., Uncovering the reality within virtual software teams. in: International Conference on Software Engineering 2006, International workshop on Global software development for the practitioner Shanghai, China, pp. 66-72 (2006). [8] EDENSOR, T., Reconsidering National Temporalities Institutional Times, Everyday Routines, Serial Spaces and Synchronicities, in: European Journal of Social Theory, Vol. 8, No. 4, pp. 525-545 (2006). [9] EGAN, R., An Exploratory Study of Cultural Differences in Temporal Perception and Its Implications for Running Efficient Global Software Teams, Ph.D. Dissertation, New Jersey Institute of Technology, Newark, N.J. 2008. [10] EISENHARDT, K.M., Building Theories from Case Study Research, in: Academy of Management. The Academy of Management Review, Vol. 14, No. 4, pp. 532-551 (1989). [11] GLASER, B.G.; STRAUSS, A.L., Discovery of Grounded Theory: Strategies for Qualitative Research, Aldine Pub. Co., Chicago, I.L. 1967. [12] HARVEY, M.; NOVICEVIC, M.M.; GARRISON, G., Global Virtual Teams: A Human Resource Capital Architecture, in: International Journal of Human Resource Management, Vol. 16, pp. 1583–1599 (2005). [13] HOLMSTRÖM, H. P.; ÄGERFALK, P.; CONCHÚIR, E.Ó.; FITZGEREALD, B., The Irish Bridge: A Case Study of the Dual Role in Offshore Sourcing Relationships, in: Proceedings of the 27th International Conference in Information Systems Milwaukee, W.I., pp. 513-526 (2006). [14] IM, H.-G., YATES, J.; ORLIKOWSKI, W., Temporal Coordination through Communication: Using Genres in a Virtual Start-up Organization, in: Information Technology & People, Vol. 18, No. 2, pp. 89-119 (2005). [15] JARVENPAA, S.L.; IVES, B., The Global Network Organization of the Future: Information Management Opportunities and Challenges, in: Journal of Management Information Systems, Vol., 10, No. 4, pp. 25-57 (1994). [16] JARVENPAA, S.L.; LEIDNER, D.E., Communication and Trust in Global Virtual Teams, in: Organizational Science, Vol. 10, No. 6, pp. 791-815 (1999). [17] LEVINA, N., Collaborating Across Boundaries in a Global Economy: Do Organizational Boundaries and Country Contexts Matter?, in: Proceedings of the 27th International Conference on Information Systems ICIS 2006, Milwaukee, W.I., pp. 627-642 (2006). [18] MILEWSKI, A. E.; TREMAINE, M.; EGAN, R.; ZHANG, S.; KÖBLER, F.; O’SULLIVAN, P., Information ‘Bridging’ in a Global Organization, in: Proceedings of the 2007 Conference of the Center for Advanced Studies on Collaborative Research, ACM Press, New York, N.Y. 2007. [19] MOWSHOWITZ, A., Virtual organization, in: Communications of the ACM, Vol. 40, No. 9, pp. 30-37 (1997). [20] NANDHAKUMAR, J.; BASKERVILLE, R., Durability of online teamworking: patterns of trust, in: Information Technology & People, Vol. 19, No. 4, pp. 371-389 (2006). [21] NEMIRO, J.E., Connection in Creative Virtual Teams, in: Journal of Behavioral and Applied Management, Vol. 3 No. 2, pp. 92–112 (2001). [22] PICCOLI, G.; POWELL, A.; IVES, B., Virtual Teams: Team Control Structure, Work Processes, and Team Effectiveness, in: Information Technology & People, Vol. 17, No. 4, pp. 359-379 (2004). [23] REMUS, W., Using Students as Subjects in Experiments on Decision Support Systems, 22nd Hawaii International Conference on System Sciences, HICSS’22, IEEE Computer Society Press (1989). [24] SNOW, C.C.; DAVISON, S.C.; SNELL, S.A.; HAMBRICK, D.C., Use Transnational Teams to Globalize Your Company, in: Organizational Dynamics, Vol. 24, No. 4, pp. 50-67 (1996). [25] WU, D., Supporting Individual Time Management through the Capture and Display of Temporal Structures, Ph.D. Dissertation, New Jersey Institute of Technology, Newark, N.J. 2005. [26] YIN, R.K., Case Study Research: Design and Methods, Sage Publications Inc., Beverley Hills, C.A. 1984. [27] ZERBE, S., Globale Teams, ein Ansatz zur Formulierung von Gestaltungsvorschlägen für verteilte teamorientierte Organisationsformen, Ph.D. Dissertation, University Hohenheim 2000. 294 CONTENT-BASED COMMUNITY DETECTION IN SOCIAL CORPORA Annette Bobrik, Matthias Trier1 Abstract Electronic communication media are a widespread means of interaction. They effect network relationships among people. Such networks provide connectivity but are often structured in clusters. Current cluster analysis in social corpora is mainly based on structural properties. This paper extends existing approaches with content-based cluster identification and community detection in social corpora. Following a design science methodology, we demonstrate our approach using a corporate e-mail dataset. After analyzing relationships between structural and content-based groups we conclude that our method contributes to detecting online communities, especially for large structural or smaller but dispersed topical groups. 1. Introduction Electronic communication media have become the most widespread means of interacting in a company. In a recent study, 98 percent of all employees with internet access collaborate via e-mail at their workplace, most of them several times a day. Three quarters used it to improve their teamwork and to increase the number of people they actively communicate with [5]. E-Mail is thus a strong force for connecting people at the workplace. It has been shown to complement formal work networks and provide more diverse, participative and less formally aligned relations [2]. Such effects are not limited to the domain of e-mail communication: The internet sports new combined forms of interaction that blend contents and communication (e.g. comments to stories) [21]. All these interactions of people captured over time form a social network structure via communication [11]. One of the primary methods for studying the resulting electronic communities is Social Network Analysis (SNA) [24]. For this paper, the collection of all (electronic) traces of interrelated communication relationships is defined as a social corpus. Research in online communication networks is directed at understanding the structures and properties of these complex systems to identify structural patterns (e.g. [10]). One important interest is the location of groups in such networks. For this objective, SNA offers a series of clustering and grouping algorithms that find widespread application in practice. For example, Tyler et al. applied a graph-theoretic betweenness centrality algorithm to automatically identify communities in a research department of 400 employees at Hewlett-Packard [22] solely based on studying e-mail interactions. They detected 66 distinct groups reaching from 2 up to 57 members. A subsequent manual validation has shown that about 60 percent of the persons found the automatically identified 1 TU Berlin, D-10587 Berlin, Franklinstrasse 28/29 295 groups to be completely correct. This example shows that networks simultaneously allow flows of knowledge and provide connectivity but are also often structured in clusters of actors [12]. Actors tend to cluster in homogenous groups that are only loosely connected to other groups [17]. However such research and the current algorithmic implementations in common SNA tools like Pajek or UCINet only apply structural analysis of community groups. The domain of content analysis with means of information retrieval has not yet been accommodated in the methodological framework of SNA. Previous related research in content analysis and topic mining is focused on algorithms for generating keyword or topic descriptors in semi-formal text [3]. In the few studies of contents of social corpora, the focus was on expert profiling and on subsequent assessment of search strategies to search for persons with appropriate expertise in online networks [26]. The authors applied conventional text mining and indexed all the messages of a person and created a keyword vector, in which a keyword is weighted by its term frequency-inverted document frequency [26]. A precursor to the work in this paper is our content-based analysis and exploration concept called ‘Social Search’ [21]. It combines network visualization and the ability to create topic oriented sub-networks of an online discourse. Despite such initial approaches, these and similar studies mostly use content analysis to profile and search for individuals in social corpora. A comprehensive method of applying content-based analysis to study the group level of social networks is missing. Consequently there is not much known about how topical profiles are spread in social corpora, how virtual groups reflect topics, or if topical analysis would yield divergent group segmentation. With such a gap, every conventional structure-based method will not be able to convincingly detect communities in a multi-contextual network with multiple topics that are simultaneously shared among actors. Such communities are not only structural phenomenon but have been defined by seminal literature as networks about something [25]. 2. Research Objectives Based on the recognition of the above shortcomings, this paper is introducing an approach for content-based community detection in social corpora based on content clustering techniques. With this method, current structural insights about groups in social corpora can be extended with a topical perspective. Identified groups can be related to structural patterns in order to identify topic communities which are inefficiently spread across the interaction structure or which are isolated from other people. With this method, we want to contribute to research on better algorithms to identify group-level properties of electronic networks. This will enable more sophisticated automated awareness services (i.e. to answer questions like who is related to my context, or who is a relevant contact?), the support of large overlapping global teams, or other collaborative community services. Our research is driven by the following two research questions: 1. How can content-based clustering be applied for the detection of topical communities in social corpora? 2. To what extend do groups identified by existing methods of structural clustering correlate with content-based communities? We employ a design science research methodology as our focus is less on empirical insight about factor relationships but on the design and evaluation of a method (a design artifact) [23]. Consequently, the remainder of the paper is organized as follows: In Section 3 the related approaches and basic foundations for content-based clustering in social corpora are given. In Section 4, we introduce our proposed approach to find communities with similar context/collaborative content. We then demonstrate and evaluate the new approach using a 296 corporate e-mail dataset. The corresponding data source is described in Section 5. Finally, we compare our results with subgroups obtained from structural clustering to discuss the general relationship of these two perspectives in Section 6. A conclusion of our findings is presented in Section 7. 3. Methods and Foundations for Community Detection in Social Corpora In this section we briefly introduce related research and corresponding foundations for our approach of content-based community detection. They include the concepts of Social Network Intelligence, event-driven network analysis, measures of topic importance, and algorithms for structural clustering. 3.1. Event-driven Network Analysis Approach The methods presented in this paper relate to the underlying concept of Social Network Intelligence (SNI), initially introduced in [19]. This approach aims at extending conventional network analysis with a dynamic analysis on the longitudinal processes in a social network (network dynamics) and a content-based analysis of social networks. The approach allows studying the change and evolution of network structures, the impact of events, or processes of topic dissemination in networks. A comprehensive account of the resulting advantages is presented in [20]. As SNI requires extensive computational effort, the corresponding software implementation Commetrix has been introduced. Commetrix is a java-based tool constructed for event-based dynamic network analysis and attempts to address the limitations of current approaches [19]. The development of this tool yielded a comprehensive set of software-based methods for exploratory static and dynamic visualization with integrated analysis of social network measures. The methodological core of SNI and Commetrix is event-based network analysis: Relationships are not directly considered but their constituting timed events are captured. In communication network analysis such relational events are created by exchanging messages with others. From these events, relationships can be aggregated. For each event several properties are captured. For example, a time stamp or a topical descriptor of each message event can recorded as a message property. Hence, the sequence of messages and the change in relationship structure or strength is represented as a series of relational events in the data model. In addition to these important changes in capturing relationships, the actual actors are modeled together with their actor properties. 3.2. Measure of topic importance In information retrieval the term frequency-inverted document frequency (tf.idf) weighting scheme is often used together with the cosine similarity to determine the similarity between two documents [18]. The importance of a keyword tk increases proportionally to the number nk,j the keyword appears in the document dj but decreases with the number of documents of the document collection D it appears in. The keyword occurrence in one document is normalized by the total number of keywords tk in the document. As social networks can interact on different types of social content and keywords can be retrieved on different levels of abstraction as single words, or word collections, or concepts, keywords, documents and document collections can be generalized as topics, content objects and content collections. However, the tf.idf measure has some disadvantages when analyzing social content. In particular, we do not compare single content objects but content collections of varying size. Thus, we propose a variation of the tf.idf measure for comparing social content collections. Similar to the tf.idf 297 measure the importance of topic tk for actor a increases proportionally to the number of content objects cj in the content collection of the actor, Ca, containing the topic but decreases with the number of content objects of the overall content base C it appears in. The importance measure can be formalized as: 3.3. Structural Clustering A cluster analysis performed on the network structure seeks to detect densely connected subgroups. A widely used clustering algorithm for community detection is the divisive hierarchical edge betweenness algorithm by Newman and Girvan [6]. The algorithm iteratively removes edges from the network until it disaggregates into smaller subgroups. As a result a hierarchy of nested partitions is obtained ranging from all actors in one large group to each actor in a group by his own2. From this hierarchy the partition is chosen which maximizes the modularity measure [16]. The maximum of the modularity measure indicates that the actors are maximally connected with their group members and minimally connected with other groups. 4. A New Approach of Content-based Clustering In contrast to the edge betweenness algorithm which is working merely on the structure of the network we propose a content-based clustering procedure which takes the network context into account. It is basically an iterative partitioning clustering procedure which assigns objects to clusters due to the similarity of their features. While clustering social corpora the actors are the objects to be clustered and the topics in their content collections are the features the clustering is performed on. The similarities of the topics are calculated from the importance of the topics in each content collection. We assume that collaborative content approximates the context of the network activities and actors are assigned to subgroups with similar context expressed by the content objects they are related to. With the Enron dataset each message is assigned to the content collection of its sender and receiver. In a preliminary semi-automatic text mining procedure the body text and subject of each message is reduced to a set of topics weighted by their importance (see Section 3.2). Each iterative partitioning clustering procedure is characterized by the initial partition, the proximity index, the type of cluster representative, the type of pass and the statistical criterion used [8]. Topic similarities are usually calculated from the cosine similarity [18]. We use the cosine similarity with the K-means clustering method by McQueen [13]. The K-means clustering method is an inclusive, combinatorial K-means pass through the data which is iteratively optimized by the square error criterion. The square error criterion measures the dissimilarity of the members of a group to its cluster representative. The cluster representative is either an object with average feature values (centroid) or the member of the group which is on average most similar to all other members (medoid) [9]. Centroids do not necessarily have an expression in the data objects. For this reason we use medoids as cluster representatives. The results and the performance of a partitioning clustering procedure strongly depend on the chosen parameters. Especially the choice of the initial partition will influence the outcome of the analysis. There are several ways to select the initial partition [1, 2 This holds only for connected graphs. Unconnected graphs already start with their actors assigned to several unconnected subcomponents which are then further divided. 298 8]: a) randomly assign the objects to K clusters, b) select K seed points from the data, e.g. randomly or K well-separated objects, e.g. the centroid of the whole data and then selecting successive seed points which are at least a certain distance away from those already chosen, or c) use a precomputed initial partition, e.g. from a preliminary hierarchical cluster analysis. With the first two methods the optimal number of clusters in the data has to been known, or estimated, before. With the third method using a hierarchical clustering algorithm the optimal number of clusters can be derived from the clustering hierarchy applying an appropriate stopping rule (see [15]). We use an initial partition obtained from a hierarchical clustering procedure using cosine similarity, the weighted average linkage rule by McQuitty [14] and Hartigan’s stopping rule which minimizes the change of the within-cluster sum of squares to the representative of the cluster for two subsequent partitions [7]. Our content-based cluster analysis approach is not intended to compete with the structural clustering but to provide additional insights in group formation processes within collaborative networks. Each clustering procedure will identify different subgroups in a network due to the structural or content-based similarity of the actors. Depending on the network structure they belong to a set of densely connected members that are rather loosely connected to other members. Depending on the network context approximated by the content of their interactions they belong to a set of actors with similar context which are not necessarily densely connected to each other. Besides a visual comparison of the results from the two clustering procedures we evaluate some structural and content-based properties. The structural properties are the density, the average clustering coefficient, the average relationship strength, and the number of unconnected components. The density measures how many possible relationships are established whereas the clustering coefficient measures how many established relationships form relationships themselves. The average relationship strength provides information about the communicational activity within the cluster. The content dissimilarity is measured by the square error value which is the sum of the within-cluster dissimilarities of the content collections of the group members to the content collection of their medoid. To measure the stability in group memberships between the structural and the content-based clusters we use two different measures: The first stability measure is the percentage of structural group members belonging to the same content-based cluster. The second stability measure is based on a version of the Dice coefficient [4] for actor-oriented group membership stability. It measures how stable the group membership of an actor is in terms of constant group members and structural and are the sets of group members of actor in as well as content-based group size. Suppose the structural and the content-based clustering. is then the overlap between both groups. The two actor-oriented group membership stability measures can be formalized as follows: and To calculate the group membership stability of a structural cluster the average values of both actororiented group membership stability measures are used, namely AGMS#1(a) and AGMS#2(a). 5. Data Source Our analysis is based on a subsample of the publicly available corporate Enron e-mail dataset. The Enron Corporation was an American energy company which went bankrupt in late 2001. The 299 subsample sorely consists of internal messages exchanged between non-isolated Enron employees on management level from September 1th 2000 to March 31th 2001. On the one hand this was done to prevent the analysis to be overcrowded with too many peripheral actors with minimal impact on the network and to focus on the internal collaborative relationships (focus on Enron employees). On the other hand preliminary studies on the Enron dataset and its context have shown that within the selected period of time important communication threads can be found as it covers the California's electricity crisis which led to the downfall of the Enron company (focus on selected period of time). Two additional reasons for the subsample selection had to be considered. First, the selected period is more stable in the presence and activity of the network participants than earlier or later periods. Second, as the analysis of subgroups is more interested in larger collections of actors than in single individuals a window size has to be chosen where large and dense network structures can emerge. A much shorter period would yield to networks with many unconnected, stringy components where the results from the structural as well as content-based clustering procedures are obvious. Within the subsample 112 actors formed 441 relationships with average relationship strength of 17.39 messages. The density of the network is 7.09 percent. The diameter only amounts to a path length of 5 steps and the average path length between every pair of at least indirectly connected actors is 2.76 steps. However, there are two unconnected components in the network, one large component with 106 actors and one small component with 6 actors. The core group of active people, which together accumulate 80 percent of all network activity, has a share of 18.75 percent. The maximum degree is 24 contacts. The most active actor has sent 826 and received 234 messages from contacts in the sample. Interestingly, the most active actor and the most connected actor are not the same person. Moreover, the most connected actor has a much smaller network activity with 49 messages sent and 60 messages received, which is an almost perfect reciprocal relation. The clustering coefficient of the subsample, that is how many contacts of all actors are connected themselves, is 35.20 percent. 6. Results and Interpretation The structural as well as the content-based clustering procedure has been applied to the subsample of the Enron dataset described in the previous Section. Figure 1 provides the visual representation of the cluster memberships for both clustering procedures. Table 1 and Table2 contain additional information about the clusters. With the structural clustering (A) most of the clusters are well separated from the others. Only in the extremely dense center of the network the clusters seem to intermingle. In comparison, the content-based clusters (B) are more distributed over the entire network. The members of cluster C4 even belong to two unconnected components of the network. The overall content dissimilarity of each actor to its group members is expressed by the square error value: the sum of squared dissimilarities calculated from the cosine similarities of all actors’ content collections to the content collection of the medoid of their cluster. As the content-based clustering procedure identifies some smaller clusters and two large clusters with 30 (C5) and 48 (C6) members one would expect a larger square error. However, comparing the results from (A), 3.47, and (B), 2.77, the content-based clustering solution identifies more similar clusters. The content dissimilarity as well as the average relationship strength of the structural clusters does not depend on the group size. Cluster S4 has about half the number of members as cluster S7 but the same content dissimilarity. That means the members of the larger cluster S7 have more similar content collections than those in the smaller cluster S4. Clusters S4 and S5 have almost the same size but the members in cluster S5 communicate over more different topics than those in cluster S4. Interestingly, the communicational content of the smaller clusters S1, S2 and S3 is far less similar 300 than that of the larger clusters S4, S6 and S7. The clustering coefficient is high for medium sized clusters and decreases with cluster size. But even in the largest, least dense cluster, S9, almost half of all contacts are connected themselves. A B Figure 1: Structural versus content-based community detection. (A) Structural clustering: 9 clusters, square error: 3.47; (B) Content-based clustering: 12 clusters, 6 singleton clusters (light-grey), square error: 2.77. In contrast to the structural clustering obtained from the edge betweenness clustering algorithm the content-based clusters can contain more than one connected component and sometimes, as with clusters C4 and C6, also include entirely unconnected actors (singletons). As the larger contentbased clusters are spread over the entire network the group density decreases with the group size whereas the communicational activity tends to increase. As with the structural clustering the clustering coefficient is high for medium sized clusters and then decreases. But again, even in the largest cluster many contacts are also connected themselves. The content dissimilarity uniformly increases with cluster size but the relation of content dissimilarity to cluster size decreases. Thus, the group members become more similar with increasing group size. Table 1: Overview of structural clusters and structural group membership stability. Cluster Color Members Square Error Density [%] Clustering Coeff. [%] ∅ Rel. Strength AGMS#1(a) AGMS#2(a) S1 light green 2 0.23 100.0 1.00 0.00 0.00 S2 S3 S4 orange red cyan 6 0.29 33.33 0.00 10.80 0.67 0.42 8 0.24 60.71 68.18 10.00 0.57 0.17 10 0.18 55.56 66.39 71.60 1.00 0.47 S5 dark red 11 0.52 43.64 67.92 21.08 0.67 0.36 S6 dark blue 15 0.20 49.52 62.88 18.94 1.00 0.55 S7 S8 S9 magenta green yellow 18 0.18 40.52 49.04 10.94 0.53 0.35 20 0.76 30.53 44.21 9.97 0.34 0.24 22 0.87 7.83 46.34 30.30 0.25 0.28 Comparing the AGMS#1(a) values some structural group members belong almost entirely to the same content-based cluster: cluster S2 is mostly included in cluster C4, cluster S5 mostly in cluster 301 C5, clusters S3 and S7 mostly in cluster C6. Some structural groups belong entirely to the same content-based cluster, namely cluster S4 to cluster C5 and cluster S6 to cluster C6. The two largest structural clusters S8 and S9 dissolve in several content-based clusters: cluster S8 in clusters C5, C6 and some singletons, cluster S9 in clustersC2, C6, C3 and some singletons. These two clusters have also a higher content dissimilarity. Comparing the AGMS#2(a) values even if most or all members stick together they now belong to larger groups with several new members. The average group membership stability for the whole network is 0.56 for GMS#1(a) and 0.34 for GMS#2(a). That means, for each actor more than half of the structural group members are in the same content-based cluster and about one third of the structural clustering structure (group size and group membership) stays the same. Table 2: Overview of content-based clusters (non-singletons). Cluster C1 C2 C3 C4 C5 C6 Color Members Components (Singletons) Square Error Density [%] Clustering Coeff. [%] light green 2 1 0.00 100.00 2.00 dark blue 3 1 0.13 66.67 0.00 1.50 cyan 11 2 0.29 34.55 58.33 13.89 orange 12 3 (1) 0.37 24.24 71.43 8.31 red 30 1 0.86 20.69 45.89 29.77 magenta 48 2 (1) 1.12 12.50 40.93 23.69 ∅ Rel. Strength In summary, the content-based clusters of the subsample of the Enron dataset still tend to cover well connected and somewhat separated regions of the network, like cluster S6, if they are established through similar content. But at the same time the clustering procedure groups together those actors from different parts of the network, like cluster C4, that are involved into similar topics without regarding their structural relationships. B.1 B.2 Figure 2: Topic spread in content-based clustering. Node color: content-based cluster membership (light gray: filtered out), node label: database id. (B.1) Topic: ‘load curtailment’; (B.2) Topic: ‘Dynegy’. 302 Figure 2 provides a visual validation of the content-based clustering solution (B) in Figure 1 for two different topics. Network (B.1) shows all actors whose content collections contain the topic ‘load curtailment’, network (B.2) those whose content collections contain the topic ‘Dynegy’. ‘Load curtailment’ refers to reducing the energy demand peaks by load balancing, whereas ‘Dynegy’ refers to Dynegy Inc. which is a large energy company and has been a rival of Enron in the energy market. The actors not containing these topics are filtered out. For a better localization of the topic subgroups the inactive nodes and edges are presented in light gray. Both topic subgroups are spread over the entire network. Although the majority of actors involved in the topics belong to contentbased cluster C6, the first topic is better represented by the clustering solution as more actors from the second topic belong to other clusters (namely C3, C4 and C5). However, a clustering procedure establishes group memberships on properties that help to distinguish objects. Thus, if a topic is communicated by too many actors it is not meaningful enough to distinguish them and the groups are established on lesser used topics. The results from the content-based clustering can be used to classify topics and content objects in terms of relevance and distinction. Comparing the topic subgroup in (B.1) with the entire network and the structural clusters in (A) it becomes clear that a mere structural perspective on communicational activities fails to reveal the complex nature of collaborative content. 7. Conclusion This paper introduces a content-based approach to clustering social networks. Similar to most previous studies in the domain of clustering, it could be noticed, that a main challenge is the definition of the number of clusters. Using a corporate dataset of e-mail communication, we could show that the method is able to produce a series of content-related clusters and thus to support the detection of content-based online communities. A comparison of structural and content-based clusters yielded the insight that significant differences between the results of both procedures could be identified. Especially if a topic is spread throughout the structural groups resulting into similar but disconnected actors, or if a structural group is very large, content-based analysis can add value to conventional structural analysis. These results motivate further inquiries into content-based detection of contribute to better algorithms to identify group-level properties of electronic networks. However, in content-based communities, better known as communities of practice or communities of interest, actors can be a member of more than one community joining them on basis of their (temporal) interests [25]. Therefore, we intend to focus on employing clustering-algorithms (such as cliques and n-clans) that allow for multiple cluster memberships. 8. Literature [1] ALDENDERFER, M.S. and R.K. BLASHFIELD, Cluster Analysis, Sage Publications, Newbury Park 1984. [2] BIKSON, T.K. and J.D. EVELAND, The interplay of workgroup structures and computer support, in: Intellectual teamwork: Social and technological foundations of cooperative work, J. Galagher, R. Kraut and C. Egido (Eds.), p. 243290, NJ: Erlbaum, Norwood 1990. [3] CASTELLANOS, M., HotMiner: Discovering Hot Topics from Dirty Text, in: Survey of text mining: Clustering, Classification, and Retrieval, M.W. Berry (Ed.), Springer 2003. [4] DICE, L.R., Measures of the amount of ecological association between species, J. Ecology 26, p. 297-302 (1945). [5] FALLOWS, D., Email at work - few feel overwhelmed and most are pleased with the way email helps them do their jobs. PEW Internet and American Life Project, [cited 2002-2002-01-28]; Available from: http://207.21.232.103/pdfs/PIP_Work_Email_Report.pdf (2002). 303 [6] GIRVAN, M. and M.E.J. NEWMAN, Community structure in social and biological networks, Proc. Natl. Acad. Sci. USA 99, p. 7821–7826 (2002). [7] HARTIGAN, J.A., Clustering Algorithms, Wiley-Interscience, New York 1975. [8] JAIN, A.K. and R.C. DUBES, Algorithms for Clustering Data, Pretence Hall, Endelwood Cliffs, New Jersey 1988. [9] KAUFMAN, L. and P.J. ROUSSEEUW, Finding Groups in Data - An Introduction to Cluster Analysis, WileyInterscience, Hoboken, New Jersey 1990. [10] KOSSINETS, G. and D.W. WATTS, Empirical analysis of an evolving social network, Science Jan 6, p. 88-90 (2006). [11] KRACKHARDT, D., The strength of strong ties: The importance of philos in organizations, in: Organizations and networks: Theory and practice, N. Nohiram and R. Eccles (Eds.), p. 216-239, MA: Cambridge University Press, Cambridge 1991. [12] LEVINE, S.S. and R. KURZBAN, Explaining Clustering in Social Networks: Towards an Evolutionary Theory of Cascading Benefits, Managerial and Decision Economics 27(2-3), p. 173-187 (2006). [13] MCQUEEN, J.B., Some methods of classification and analysis of multivariate observations, Proceedings of the Fifth Berkeley Symposium on Mathematical Statistics and Probability, p. 281-297 (1967). [14] MCQUITTY, L.L., Similarity analysis by reciprocal pairs for discrete and continuous data, Educational and Psychological Measurement 27, p. 21-46 (1966). [15] MILLIGAN, G.W. and M.C. COOPER, An examination of procedures for determining the number of clusters in a data set, Psychometrika 50, p. 159-179 (1985). [16] NEWMAN, M.E.J. and M. GIRVAN, Finding and evaluating community structure in networks, Physical Review E 69, p. 026113 (2004). [17] RAVASZ, E. and A.-L. BARABÁSI, Hierarchical Organization in Complex Networks, Physical Review E 67 (2003). [18] SALTON, G. and M. MCGILL, Introduction to Modern Information Retrieval, McGraw-Hill, New Yoek 1984. [19] TRIER, M., IT-supported Visualization and Evaluation of Virtual Knowledge Communities, Faculty of Computing Sciences and Electrical Engineering, Technical University of Berlin: Berlin, p. 270 (2005). [20] TRIER, M., Towards Dynamic Visualization for Understanding Evolution of Digital Communication Networks, Information Systems Research 19(3) (2008). [21] TRIER, M. and A. BOBRIK, Social Search: Exploring and Searching Social Architectures in Digital Networks, Forthcoming in IEEE Internet Computing (2008). [22] TYLER, J.R., D.M. WILKINSON and B.A. HUBERMAN, Email as spectroscopy: automated discovery of community structure within organizations, in: Proceedings of Communities and Technologies, Kluwer (2003). [23] VAISHNAVI, V. and W. KUECHLER, Design Research in Information Systems, 2004-01-20, [cited 2006-0512]; Available from: http://www.isworld.org/Researchdesign/drisISworld.htm (2004). [24] WASSERMAN, S. and K. FAUST, Social Network Analysis: Methods and Applications, Cambridge University Press, Cambridge 1994. [25] WENGER, E., R. MCDERMOTT and W.M. SNYDER, Cultivating Communities of Practice, Harvard Business School Press, Boston 2002. [26] ZHANG, J. and M.S. ACKERMAN, Searching for expertise in social networks: a simulation of potential strategies, in: Proceedings of the 2005 international ACM SIGGROUP conference on Supporting group work (2005). 304 MINE, YOURS…OURS? DESIGNING FOR PRINCIPALAGENT COLLABORATION IN INTERACTIVE VALUE CREATION Jasminko Novak1 Abstract The paper introduces a theoretically-grounded conceptual framework for the design of collaborative systems which support expert-mediated interactive value creation involving end-users as active participants in the creation of products and services in principal-agent settings. We show how the problems of information asymmetry and burden of choice in interactive value creation can be addressed by integrating the principal-agent perspective with CSCW models of collaboration between heterogeneous actors. Results of a preliminary application and evaluation through the design of a concrete system for cooperative travel advisory in a real-world setting suggest its usefulness and illustrate how it can inform design practice. 1. Introduction The pervasive availability of easy-to-use Internet tools and services for information sharing, interaction and communication (wikis, blogs, instant messaging, social networks) has profoundly transformed the role of end-users from passive consumers to active co-creators of content, products and services in professional value networks. Companies are increasingly devising cooperative business models [5] in which end-users are empowered to active co-creators of value (e.g. manufacturing [25], travel [9], health [2], finance [8]). The term interactive value creation has been used to describe a range of such cooperative arrangements [5], [25]: from new forms of user participation in the consumption process, to personalized interaction [23] to active co-creation of new products and services e.g. through online feedback forums, design contests or user-innovation toolkits [35]. Common to such models are two differentiating characteristics: 1) they are based upon active, voluntary participation of individuals without formal or contractual obligation in the process [5] and 2) they derive a competitive advantage not from the control of information as a scarce resource (information asymmetry) but by actively promoting information symmetry as a mechanism of cooperative value creation [30]. Extensive research in computer-supported cooperative work (CSCW) and human-computer interaction (HCI) has addressed the cooperation mechanisms and social dynamics (e.g. user motivation, coordination) in web-based content creation and sharing platforms (Wikipedia, YouTube etc.) [13], [19] as well as the dynamics of interaction and communication in online communities and social networks (see [24], [33] for an overview). 1 University of Zurich, Dept. of Informatics, Binzmühlestr. 14, CH-8050 Zurich, Switzerland. 305 In contrast, little work has considered the nature of cooperative processes in interactive value creation. While there has been an implicit transfer of the concept of communities as the main unit of analysis for such contexts, a critical analysis of the extent to which this is applicable to interactive value creation is still missing. This concerns in particular the implications of associated issues from the agency theory and related problems of information asymmetry for the design of collaborative systems for value co-creation between users and commercial actors. Accordingly, we address the following question: How can we conceptualize and design collaborative systems which integrate users as active co-creators of value in professional value networks? In particular, we address the problems of information asymmetry and burden of choice in interactive value creation. In devising a theoretically-founded solution we critically analyze the applicability of the traditional notion of group-centric collaboration from CSCW and point to the need of considering the mecentric perspective of individual self-actualization. By relating the principal-agent theory to CSCW models of collaboration between heterogeneous actors we propose a conceptual design framework for collaborative systems enabling expert-mediated interactive value creation. We discuss the application of this model to the design of a concrete system and its preliminary validation by a case study in the travel consultancy domain in a real-world setting. In conclusion we critically discuss how the results of this preliminary evaluation provide insights into the validity of the proposed model and inform the design practice. 2. Interactive Value Creation and Cooperative Business Models The concept of interactive value creation refers to a process of voluntary and active user participation in the development of new products, processes or services targeted at a larger customer group (open innovation) or in the personalization and configuration of existing product or service offerings for a customer’s specific individual needs (mass customization) [25]. A crucial aspect of product individualization is the realization of effective access to knowledge about user needs and preferences. Users are commonly not in a position to explicitly describe their needs and desires beforehand (e.g. before actually seeing or trying out a product) and to express them in terms suitable for integration in a company’s production process. This makes the transaction costs of the elicitation and direct transfer of such “sticky” knowledge prohibitively high [35]. The approach of interactive value creation is based on the premise that by actively involving customers in solving subtasks in product design and production (e.g. feature configuration) the knowledge of user needs is directly embedded by customers themselves into their personal product configurations [25]. This carries profound consequences for companies’ business models. Empowering user participation is a two-sided coin: effective combination of local user knowledge (the problem space) and company-specific design and production knowledge (the solution space) requires revealing company knowledge. The ubiquitous Internet information access also allows users to quickly access product and provider information from a myriad of third-party sources at almost no transaction costs. This dramatically changes the traditional situation of asymmetrical information control in which companies are in the power position by having more or better information then their counterparts in the transaction. Hence, while information asymmetry is a fundamental rentseeking mechanism in traditional models, in cooperative business models providing equal access to information resources to all parties is a key mechanism of interactive value creation [30]. INTERACTIVE VALUE CREATION Variety paradox („burden of choice“) Sticky information (transfer of individual needs) Information asymmetries (uncertainities about provider) Figure 1. Main problems of interactive value creation (according to [25]). 306 However, different studies show that the provision of information to customers doesn’t necessarily lead to increased user empowerment and effective cooperation. The complexity of the solution space and the variety of available options can have an overwhelming effect, resulting in information overload [16] and the “burden of choice” problem [29], causing users to resort to standard solutions [3]. A related problem is the customers’ inability to assess the true quality of the individualized product design in advance, before its production and purchase. This uncertainty is heightened by the inability of comparison with other products (due to individualization) and by the missing recurrence of purchase as common mechanisms of uncertainty reduction for standardized products. This leads to uncertainty regarding the behavior and the performance of the producer, acting as the customer agent (principal-agent relation). Customers also frequently do not have the required knowledge nor patience for dealing with complex solution spaces and for bridging the cognitive gap between perceived personal needs and the possibilities for designing appropriate solutions [10],[22]. With increasing complexity of individualization and related information, the information gap increases instead to diminish. This reduces the effectiveness of user participation and reinforces information asymmetries and uncertainty. In order to conceptualize the design of collaborative systems supporting such value co-creation we need to understand how the above problems relate to the familiar body of knowledge on collaboration extensively researched in CSCW and related fields. 3. “We-centric” Collaboration vs. “Me-centric” Participation In collaboration research, user value co-creation has been largely conceptualized from the “weperspective” of communities and situated in the domain of information goods. Online communities are conceived as social networks connecting people with similar interests or practices who communicate regularly and exchange information and experiences through internet-based information and communication channels (e.g. discussion forums, wikis, online social networking platforms) [24]. Active participation and member contributions are motivated by intrinsic, often group-oriented or altruistic motives such as community citizenship, enjoyment of social interaction, reciprocity and reputation [33]. The defining characteristic of communities is their self-organization and autonomous constitution of social norms, acceptable behaviors and uses of community resources [24]. The collective knowledge built up through member participation is considered collective property of the community and a “public good” of its own, freely available for use and consumption (at least within community confines) [15][24][36]. Such a conceptualization applies to interactive value creation in which group interaction is necessary to accrue commercial benefits from user involvement. However, for the majority of users, the benefits of such goods reside largely in personal usefulness of contributions created by others. The greatest proportion of community users are passive participants who consume community information or services (e.g. finding answers to their needs in a discussion forum). The so-called “lurkers” typically amount to 80-90% of community members [33] and are attracted by extrinsic motivation: the prospect of easily accessible, credible information, highly relevant to their needs [18]. When integrating community-based value creation into commercial value networks, the intrinsic and altruistic “we-based” motivation of user engagement poses problems with respect to acceptable modes of use and exploitation of the community’s “public good”. Community literature makes a strong point about the challenge of establishing company-sponsored communities, initiated and actively facilitated by commercial actors with the goal of exploiting the community activity for organizational or commercial purposes[7][33]. While companies address this by offering extrinsic benefits accrued from the commercial exploitation (e.g. profit sharing, gifts, reputation [33]), empirical research in motivation theory suggests that such extrinsic incentives tend to undermine intrinsic motivation (the “crowding out” effect [6]). On the other hand, insights from motivation 307 research itself show that extrinsic incentives may also reinforce intrinsic motivation [6]. This analysis suggests that integration of user participation into commercial value networks even in intrinsically group-based collaborative value creation cannot be addressed exclusively from the “we-centric” group perspective of traditional CSCW [14]. Moreover, co-creative product individualization is already largely based on “me-centric” individual participation not requiring group collaboration. Accordingly, we argue that a shift of perspective from “we-centric” group collaboration to “me-centric” [14] participation allows us to identify theoretical models and design guidelines for collaboration systems supporting user engagement in commercial value co-creation. 4. The Principal-Agent Problem The change of focus from “we-centric” group perspective with an implied sense of togetherness and pursuit of shared purpose, to individually-motivated “me-centric” perspective requires us to consider potential cooperation problems in customer-producer relationships. This suggests the necessity to consider the principal-agent perspective which addresses transactions between selfinterested parties with differing goals in uncertainty conditions. The principal-agent perspective has been applied to transactions in socio-economic systems in general, characterized by information asymmetry and opportunistic behavior (see overview in [21]). In its application to buyer-seller relationships and electronic marketplaces [21] the buyers are model led as principals who delegate responsibility for acquiring products with desired characteristics to sellers as agents who commonly have greater information about the products and their production [31]. The uncertainty resides thereby in two main sources: the incongruence in goals and the inability of buyers to monitor the sellers’ behavior. The buyer cannot easily assess the true characteristics of the seller and the quality of his products, due to possible misrepresentation by the seller (hidden information). This results in adverse selection i.e. a buyer potentially selecting a seller with inappropriate quality. The buyer also cannot ensure the alignment of seller’s post-contractual actions with his goals and expectations and the delivery of promised product quality (moral hazard). This may result in opportunistic behavior of the seller (pursuing goals not in the interest of the buyer, such as reducing product quality to increase profit or commercially exploiting user’s personal data) [11]. The principal-agent theory frames the uncertainty problem as an information problem while the corresponding logic of signals and incentives as strategies of mitigation suggests that proper use and design of IT-artifacts can prevent and resolve problems of hidden information and hidden action [21]. We can thus apply the principal-agent theory as a conceptual framework for understanding the inherent structure of relationships between users and providers in the model of interactive value creation, an approach up-to-know only marginally addressed (e.g.[25], [34]). The value proposition of companies for enticing customer participation is the promise of obtaining highly personalized products or services tailored specifically to the customer’s needs [22]. To provide this “service”, the company claims the necessity of active user contribution in the design process. Though based on voluntary engagement and not sanctioned with contractual relationships, such participation suggests the existence of principal-agent relations typically found in more formalized arrangements. The problems of user motivation and reactions to commercial exploitation and extrinsic incentives now correspond to familiar problems of hidden information and hidden action. This points to the applicability and necessity of reviewing common solutions for such agency problems in the specific context of interactive value creation. Hidden information and hidden action are typically mitigated through signaling, screening, monitoring and self-selection [21]. In signaling, the agent explicitly communicates his characteristics to the principal in trust inducing ways (e.g. quality guarantee certificates). In screening the principal engages actively in obtaining additional information about agent characteristics, e.g. through performance tests or assessment information from third-parties (e.g. consumer associations, communities). Moral hazard associated 308 with hidden action can also be mitigated through signals as well as through incentive systems, bonding, behavior and performance monitoring. Reporting systems can reduce the information asymmetry and allow the principal to better assess agent behavior. Examples include process tracking or reputation systems where past principals evaluate the agent’s performance (e.g. eBay [12]). The next section analyzes how such techniques can be applied in the design of collaborative systems for interactive value creation. 5. Conceptual Design Framework: Expert-Mediated Interactive Value Creation through Interactive Boundary Objects Most approaches to interactive value creation focus on purely online exchange mediated through product configurators and user-innovation toolkits [25]. We propose enhancing the cooperative process with direct human-to-human interaction. A special form thereof is the design and sale of complex, highly-personalized products and services through a dialogue between the customer and an expert advisor [26]. In contrast to online sales of standardized products, targeting high-volume transactions with relatively simple needs, face-to-face consultations support the sales of complex products where customer needs are difficult to formulate and translate to a tailored configuration [26]. Designing systems for such processes differs both from requirements of web-based ecommerce (efficient interaction in simple transactions) and from classic mass customization. Figure 2. Traditional consultancy setting with a passive customer and asymmetrical information and interaction. This is especially true for “experience goods” whose quality cannot be determined before their purchase [34][17] (e.g. individualized travel, financial services). Not only is the knowledge of user needs difficult to elicit but neither the customer nor the sales agent have a clear idea of these preferences beforehand. The problem space contains highly context-dependent preferences evolving with the discovery of possible solutions. The space of solutions relevant for customer’s needs is not readily visible and is skewed by the intrinsic information asymmetry to the advantage of the agent. The agent is typically sitting behind a desk with a PC providing access to different sources of information with the customer on the other side, with no information access other than product catalogues and printouts [20]. This makes it difficult to integrate customer’s implicit knowledge of his own needs (problem space) with specialized knowledge of the solution space by the agent (Figure 2). The setting implies an inequality of roles and spurs customer’s distrust: Is the agent proposing appropriate solutions? Are there better or financially more viable options? Though the “burden of choice” problem (variety of options) should be solved by the expert mediator, the setting not only puts in question his trustworthiness but also makes it difficult for him to fulfill that task. As a theoretical foundation for tackling this problem we take the people-artifact framework of collaboration [4], since it addresses functional relationships between actors in a cooperative arrangement and tools to support it (Figure 3, left). Its special focus on information flows allows us to easily integrate it with the principal-agent framework. The coordinating role of shared artifacts is extensively documented in cooperation research [27]. Thereby, a special role is assumed by socalled boundary objects, as shared artifacts that can be interpreted and used by actors with differing 309 goals and backgrounds in their own way, appropriate for their own specific perspective [32]. This suggests that overcoming the information asymmetry in face-to-face value co-creation can be realized by providing a shared artifact which allows both parties to make visible and relate their own local worlds of knowledge (problem space of the customer vs. solution space of the agent). This relates the problem of knowledge integration between the customer and the sales agent to the theory of “perspective-making” and “perspective taking” [1]. Accordingly, to allow effective knowledge integration shared artifacts must enable the diverse actors to express one’s perspective in one’s own terms (perspective making), develop an understanding of the perspective of the other (perspective taking) and internalize these insights by expressing them anew in their own terms [1]. This requires that the product palette be visualized on a shared artifact allowing active exploration of different products and their characteristics by both parties (solution space). On the other hand, the problem space must be described in a way which expresses user needs in terms of his world of knowledge as well as in terms of provider criteria, allowing the mapping into the space of possible solutions (e.g. in a travel consultancy, displaying a world map and geographic search for the user alongside with product categories of the travel provider). Accordingly, we propose a conceptual design model for expert-mediated interactive value creation in which the configuration of the product or service is supported by interactive boundary objects mediating shared understanding and the integration of implicit user knowledge in the solution process (Figure 3, right). Figure 3. People-artifact framework [4] & conceptual model of expert-mediated interactive value creation. This model integrates the “people-artifact framework” of collaboration with requirements of cocreation through boundary objects and the principal-agent perspective, to realize a cooperative process of customer-advisor co-creation. The central principle is the creation of an open environment in which the shared artifact visualizes the different perspectives of the customer and the advisor and relates them to each other. This includes the visibility and shared manipulation of all information resources normally available only to the advisor. The transfer of sticky information about user needs into a personalized product configuration occurs through direct user involvement in expressing problem criteria in his own terms and direct exploration of possible solutions. The customer can thus identify options corresponding to his preferences without explicitly describing the criteria underlying his choices. Observing the interplay between options attracting user’s attention and his problem description, the sales advisor can develop an understanding of user needs and propose viable solutions. In this way, the burden of choice problem can be alleviated by human intervention. Displaying the space of all possible solutions to the customer and allowing him to proactively engage in its exploration, is a method for signaling the trustworthiness of the claimed product and seller characteristics, hence overcoming the problem of hidden information. Joint interaction with shared artifacts in an equitable setting can facilitate the creation of social ties and trust, creating an effect similar to bonding which alleviates hidden action. Such an arrangement is also likely to heighten overall trust in the advising process, whereas the inclusion of third-party information (e.g. communities, reputation systems) further restricts opportunistic seller behavior. 310 6. Case Study: Preliminary Application to Cooperative Travel Advisory Travel advisory is an excellent case of an interactive value creation process required for effectively conducting the sale of complex, highly-personalized products and services through a customeradvisor dialogue. Due to increasingly individual customer needs, market pressures and the stickiness of knowledge about customer needs (based on vague general feelings and desires), effective provision of highly personalized travel consultancy has become a critical concern in the travel industry [28]. Hence, the described conceptual design framework has been applied in the travel advisory setting in the following way. The shared artifact is implemented with an interactive large-display workspace allowing touch-based interaction (a Smartboard, www.smarttech.de). The workspace visualizes the problem space (product selection criteria) and the solution space (available products) in one shared surface which allows joint interaction by both parties (Figure 4). Shared visualization of the solution space: - products matching the specified selection criteria - product quality information from thirdparties (community portals) Shared visualization of the problem definition space: - selection criteria expressed in terms of travel products - user-defined search queries List-based representation of the solution space Visual history of inspected resources (graphical thumbnails) Figure 4. The interactive large-display workspace for cooperative travel advisory based on expert-mediated interactive value creation through boundary objects: reducing information asymmetry, furthering trust and promoting cooperation. The physical arrangement in which the customer and the sales agent stand in front of the display emphasizes their equality. Customer needs can be expressed both through selection criteria used by the travel system (product categories e.g. hotels, adventure trips etc.) and in the customers’ world of knowledge (e.g. free search). In a typical case, the agent asks questions about customer’s preferences and maps them to criteria of the problem definition space. The solution space visualizes matching products in a list and on a world map. The user can invoke detailed product information (including ratings from online communities), explore the map of products (zooming into a region shows all related products) or manipulate the selection and search criteria by himself. In this way, the customer can identify options which have not been explicitly expressed in terms of his preferences but s/he can use his implicit knowledge to guide his exploration and recognition of possible solutions. By selecting them he signals the previously unexpressed aspects of his interest to the advisor who can in turn adapt the selection criteria or suggest further products and options. This interplay supports the integration of implicit user needs into the solution design process required for interactive value creation. The implementation of the boundary object model in the interactive workspace provides a shared artifact allowing the participants to express their own individual perspectives, gain insight into the perspective of the other party and jointly interact with the shared material in a dialogue of constructing an appropriate solution (individualized travel offer). The reduction of the information asymmetry, increased transparency of the consultation process and empowerment of the customer to an equal and active partner address the principalagent conflict and act towards increasing the trustworthiness of the setting. The suitability of this model is suggested by the results of a preliminary evaluation of the prototype in a real-world travel agency with 12 customers and 4 sales agents. The evaluation involved solving two vacation 311 planning tasks in a within-subjects design: one accomplished in a classical travel consultancy setting (travel agent with PC, customer with print catalogue) and the other with the Smartboard workspace. User feedback was collected through a questionnaire and informal discussion. As reported in [20], [28] the system was well received by both users and travel agents: in a direct comparison 83% customers preferred the Smartboard as a better travel planning method while 3 out of 4 travel agents found the system very useful for their job. In [20], [28] we reported on general usability, interaction design aspects and user acceptance of the system not relating them to the presented theoretically grounded conceptual framework. Here we focus on overcoming the information asymmetry and furthering of trustworthiness as means of alleviating the principalagent problems. The perceived overall trustworthiness of information (Figure 5) is notably higher for the Smartboard (50% high, 42% very high trustworthiness) than in the classical setting (25% negative and only 16,7% high valuation) [28]. Figure 6. Trustworthiness of third-party information Figure 5. Overall trustworthiness of information [28] This has been attributed to the transparency of the situation (“I see what the agent sees”) and the inclusion of online community information. This is confirmed by the data on the trustworthiness of third-party information, which albeit displaying a smaller difference also shows a tendency of higher trustworthiness in the Smartboard setting (Figure 6). This discrepancy between overall information trustworthiness and the trustworthiness of third-party information in the Smartboard setting suggests that not only the information source (third-party vs. agency database) plays a role in perceived trustworthiness. Active participation of the user in the process and a better overview of available information in the Smartboard setting are likely to account for the difference (being the major distinguishing factors between the two situations). In fact, not only was the visual overview of the solution space greatly appreciated by the users [28] but the quality of the information overview is notably higher for the Smartboard setting (Figure 7) as is the valuation of available means for expressing user needs: both regarding the ease of search based on desired criteria (Figure 8) and regarding the usefulness of available criteria of product selection (Figure 9). Such results support the adequacy of the proposed model for increasing the transparency and perceived trustworthiness of the setting, thus alleviating the information asymmetry problem. Moreover, the increased ease in information access indicated by the results also suggests that the presented model provides appropriate means for alleviating the “burden of choice” problem and effectively supports the user in expressing his needs in terms appropriate to his perspective. Paired with the positive valuation of the usefulness of the system by the agents and the reported ease of use (Figure 10) this indicates the suitability of the developed boundary object model allowing both parties to work cooperatively without giving up their own local perspectives and at an appropriate level of complexity. Overall, such preliminary results of applying the presented conceptual design model in form of a prototype system in a real-world case, point to the suitability of the proposed model for supporting expert-mediated interactive value creation. They suggest that the transparency of the entire setup which exposes all information sources used by the travel agent and all of his actions to the customer, effectively acts as a signaling and monitoring method resolving the principal-agent problems of hidden information and hidden action. 312 Figure 7. Quality of the information overview Figure 8. Easy product search by desired criteria Figure 9 Usefulness of available selection criteria Figure 10. User effort assessment [20] The ability to assess product characteristics not only based on the statements of the sales agent and official information but also based on the reviews and ratings of other users from online travel communities is clearly linked to increased perception of the trustworthiness of information. Paired with the higher valuation of overall user satisfaction with the consultancy process this suggests a successful alleviation of the principal-agent conflict. The higher valuation of user interaction with the shared material and cooperation in finding together a solution through an iterative (and visible!) process of needs (re)formulation, product selection and user exploration of product options, creates a shared social situation which contributes to overcoming hidden action. 7. Conclusions Based on an extensive theoretical analysis we have developed an integrative interpretative framework informing the conceptualization and the design of collaborative systems which support interactive value creation between customers and commercial actors. We have shown how the problems of information asymmetry and burden of choice in interactive value creation can be addressed by integrating the principal-agent perspective with CSCW models of collaboration between heterogeneous actors. The proposed conceptual design framework provides theoreticallygrounded orientation for designing collaborative systems for expert-mediated interactive value creation. A first application to the design of a concrete system for cooperative advisory in the travel domain illustrates how it can inform concrete design practice. The preliminary evaluation suggests the adequacy of the model and shows how framing interactive value creation as a cooperative process in a principal-agent setting provides a useful lens for devising effective solutions to problems of information asymmetry, sticky knowledge and the burden of choice. Obviously, a more systematic validation will require more extensive application and longitudinal observation in realworld use. Furthermore, the transferability of the proposed approach to online mass customization has limits due to the cost-factor of human advisors. However, a number of markets and business services are predestined for such an approach as they significantly depend on the interaction with a human advisor, such as personalized travel, health and financial services. Incidentally, in these areas the application of interactive value creation models has yet to be fully exploited and explored. Moreover, investigating such contexts which naturally lend themselves to effective application of our model can provide insights which may allow subsequent transfer to a fully-scalable approach applicable in online context, e.g. by extending the expert-customer model to online customercustomer interaction or to mediated models aggregating individual into group interactions. 313 8. References [1] BOLAND J.R., TENKASI R.V.Perspective Making and Perspective Taking in Communities of Knowing, Organization Science, 6,4 1995 [2] DAVID, C., Marketing to the consumer: Perspectives from the pharmaceutical industry. Marketing Health Services, 21(1): p. 4, 2001 [3] DELLAERT, Benedict G.C., STREMERSCH, Stefan, Marketing mass customized products: Striking the balance between utility and complexity. Journal of Marketing Research, 43, 2 (May), 2005 [4] DIX, A. J.; FINLEY, J.,ABOWD, G. D., BEALE, R., Human-Computer Interaction. Prentice Hall, NY, 1993 [5] FREEDMAN, J. B. 2007. What Motivates Voluntary Engagement in Cooperative Information Systems. Proc. of HICSS ‘07. IEEE Computer Society, Washington, 2007 [6] FREY, B.S., JEGEN, R. Motivation Crowding Theory, Journal of Economic Surveys, 15(5), Blackwell, 2002 [7] HAGEL, J., Armstrong, A., Net Gain: Expanding Markets Through Virtual Communities, McGraw-Hill, 1997 [8] HARRISON, T., Consumer empowerment in financial services: Rhetoric or reality? Journal of Financial Services Marketing, 7(1), 2002 [9] HJALAGER, A.M. Quality in tourism through the empowerment of tourists.Managing Service Quality,11(4),2001 [10] HUFFMAN, C., Kahn, B., Variety for sale: mass customization or mass confusion. Journal of Retailing, 74, 4, 1998 [11] JENSEN, M., and Meckling, W. H. “The Theory of the Firm: Managerial Behavior, Agency Costs and Ownership Structure,” Journal of Financial Economics, (3:4), 1972, pp. 305-360 [12] KHOPKAR, T., Li, X., and Resnick, P., Self-selection, slipping, salvaging, slacking, and stoning: the impacts of negative feedback at eBay. Proc. 6th ACM Conf. on Electronic Commerce, Vancouver, ACM, New York, 2005 [13] KITTUR, A., Suh, B., Pendleton, B. A., and Chi, E. H. He says, she says: conflict and coordination in Wikipedia. In Proc. CHI’07, San Jose, 453-462, ACM Press, New York, NY, 2007 [14] KOCH, M., CSCW and Enterprise 2.0 - towards an integrated perspective, Proc. 21th Bled eConf., Bled, 2008 [15] KOLLOCK, P.,Economies of Online Cooperation: Gifts and Public Goods in Computer Communities,Routledge,98 [16] MAES, P., Agents that reduce work and information overload. Communications of the ACM, 37 7, 1994 [17] NELSON, P., Information and customer behavior. J. Political Econom. 78 311–329, 1970 [18] NONNECKE, B., Preece, J., "Why lurkers lurk," Proc. AMCIS ‘01, Boston, 2001. [19] NOV, O. What motivates Wikipedians?. Communications of the ACM 50, 11, 60-64. ACM Press, Nov 2007 [20] NOVAK, J., AGGELER, M., SCHWABE, G., Designing Large-Display Workspaces for Cooperative Travel Consultancy, Proc. of ACM CHI ’08, WIP, Extended Abstracts and Applications, Florence, ACM Press, 2008 [21] PAVLOU, P., Huigang L., Yajiong X., Understanding and Mitigating Uncertainty in Online Exchange Relationships: A Principal– Agent Perspective, MIS Quarterly Vol. 31 No. 1, /March 2007 [22] PILLER, F./REICHWALD, R./SCHALLER, CH., Building customer loyalty with collaboration nets, Quinn Mills et. al. (Hrsg.): Collaborative Customer Relationship Management, Harvard Business School, 2002. [23] PRAHALAD, C.K., RAMASWAMY, V., The New Frontier of Experience Innovation. Sloan Management Review, 2003. 44(4): p. 12-18. [24] PREECE, J. Online Communities: Designing Usability and Supporting Socialbilty. John Wiley & Sons, Inc., 2000 [25] REICHWALD, R., PILLER, F.T., Interaktive Wertschöpfung. Open Innovation, Individualisierung und neue Formen der Arbeitsteilung, Gabler Verlag, Wiesbaden, 2006 [26] RODDEN, T., Rogers, Y., Halloran, J., Taylor, I., Designing novel interactional workspaces to support face to face consultations, Proc. of CHI 2003, ACM Press, 2003 [27] SCHMIDT, K., SIMONE, C. Coordination mechanisms: towards a conceptual foundation of CSCW systems design. Journal of Computer Supported Coop. Work 5, 2-3, Dec. 1996. [28] SCHWABE, G., NOVAK, J., AGGELER, M., Designing the Tourist Agency of the Future, Proc. of 21st Bled eConference on eCollaboration: Overcoming Boundaries through Multi-Channel Interaction, Bled, June 2008 [29] SCHWARTZ, B., The Paradox of Choice: Why More Is Less, Harperperennial, 2005 [30] SHAPIRO, C., VARIAN, H.R., Information Rules: A Strategic Guide to the Network Economy, HBS Press, 1998 [31] SINGH, J., Sirdeshmukh, D. “Agency and Trust Mechanisms in Consumer Satisfaction and Loyalty Judgments,” Journal of the Academy of Marketing Science (28:1), 2000, pp. 150-167. [32] STAR, S.L.: The structure of ill-structured solutions: Boundary objects and heterogeneous distributed problem solving. In Readings in Distributed Artificial Intelligence, ed. M.Huhn, L.Gasser, Morgan Kaufman, 1989 [33] TEDJAMULIA, S. J., DEAN, D. L., OLSEN, D. R., and ALBRECHT, C. C. Motivating Content Contributions to Online Communities: Toward a More Comprehensive Theory. Proc. HICSS’05, IEEE Computer Soc., 2005 [34] TERWIESCH, C., LOCH, C., Collaborative Prototyping and the Pricing of Custom-Designed Products, Management Science,Vol. 50, No. 2, February 2004, pp. 145–158 [35] VON HIPPEL, E., KATZ, R. Shifting Innovation to Users via Toolkits. Management Science, 2002. 48(7): [36] WASKO, M.M, FARAJ, S. ‘It is what one does': Why people participate and help others in electronic communities of practice," Journal of Strategic Information Systems, vol. 9, pp. 155– 173, 2000. 314 eCOLLABORATION AND PRODUCTIVITY Katarina Stanoevska-Slabeva1 Abstract Companies are increasingly employing various forms of eCollaboration. Despite its growing importance, there is little research on the impact of eCollaboration. This paper presents the results of an empirical survey of the usage of eCollaboration tools and their impact on productivity Findings indicate that usage of eCollaboration has positive impact on productivity. No correlation was discovered however among eCollaboration and travelling. 1. Introduction and Motivation Since the beginning of the 21st century, eCollaboration has become an increasingly common phenomenon in our global economy. In general, eCollaboration refers to any kind of collaboration situation, where collaboration is partly or fully enabled or supported by specific information and communication technologies. Driven by market globalization, networked organizations, and employee mobility, eCollaboration is rapidly gaining importance in companies worldwide. A variety of different eCollaboration forms can be observed, ranging from loose collaboration initiated in an ad-hoc manner, to well structured and targeted virtual teams that collaborate on a global scale. Despite its growing importance, there is little research on the impact of eCollaboration. The research presented in this paper provides a contribution in this context by pursuing the following research question: "What is the impact of eCollaboration technology on productivity of employees involved in eCollaboration?" Quantitative research was applied to answer the research question. An online survey was applied to assess the felt productivity of participants in international research projects. 112 participants completed the questionnaire. The results revealed that usage of eCollaboration has positive impact on productivity by decreasing time to reach decisions in virtual settings, by diminishing of asymmetries among project participants, and by reducing unproductive time. No correlation was discovered among usage of eCollaboration tools and travelling. The content of the paper is structured as follows: Section 2 provides an overview of the state-of-theart; section 3 contains a description of the research approach, section 4 describes the survey results; section 5 summarizes the results from hypotheses testing, and section 6 provides a conclusion. 1 Universität St. Gallen, CH-9000 St. Gallen, Blumenbergplatz 9 315 2. Overview State-of-the-art The increased importance of eCollaboration has driven much research from a technical perspective regarding the development of various kinds of collaboration tools (see for example [20]). There is, furthermore, a considerable body of research related to the implementation of eCollaboration in organizations and the impact of eCollaboration on organizational structures [17]. In addition, the factors affecting the acceptance of eCollaboration technology have been investigated as well [20]. The usage of eCollaboration technology in organizations has a long tradition and can be considered as a mature technology that according to Gartner [9] is entering the "plateau of productivity". However, less is known about its impact. The goal of the research presented in this paper is to provide a contribution regarding the impact of eCollaboration technology by analyzing the impact of eCollaboration on productivity of virtual teams involved in international European projects. Some body of research is available on the impact of eCollaboration based on case studies. Several published case studies show that collaboration technology might have positive effects on productivity (see for example [4]), [21], [13], [14] and [3]). However, it is difficult to generalize the findings from the case studies as they were conducted independent of each other with different focus (see also [7]). Only few studies have analyzed the impact of eCollabortation based on quantitative research. For example [11], [12] have analyzed the impact of eCollaboration on productivity within supply chains. A basic finding of their research is that the level of efficiency is higher for eCollaboration tools that support operational rather than strategic activities. Lefebvre et al. [12] furthermore found out that the overall impact of eCollaboration is positive but not strongly related to cost reduction. Other research that is relevant to the research question in this paper is of more general nature and considers the impact of information and communication technology on productivity. An important aspect related to impact of ICT on productivity is the so called "IT productivity paradox". This term is attributed to the economist Robert Solow [15]. Solow observed earlier, "…that computers are everywhere except in the productivity data" [15]. During the 80s and 90s many studies showed that investments in ICT had negative or zero impact on productivity growth. An analysis of the reason for this paradox revealed three explanations [15]: 1) Some benefits of ICT in particular in the service sector have not been recorded at that time; 2) Benefits of ICT take considerable time to emerge due to long adoption cycles and need for business process redesign; 3) Many early studies were based on a relatively small sample of companies. New studies show that, the use of ICT is positively linked to performance of companies [15]. However not all companies benefit equally from investments in ICT. Powell & Dent-Micallef [18] have analyzed the reasons why ICT investments in some companies result in productivity improvement and in some they do not provide the expected results. They proved that there is significant interdependence of ICT and the existing human, business and technology resources of a company. ICT investments result in productivity increase only if they are aligned to the company strategy as well as integrated with complementary human and business resources of a company. To summarize, there is indication by previous research that usage eCollaboration has a positive effect on productivity, but it has not been assessed broadly yet [8], [19]. 316 3. Research Approach Given the goal of the research presented here, the following research approach has been applied: 1) definition of terms, 2) identification and selection of units of observation; 3) operationalization of the construct, survey design and hypothesis building; and 4) analysis of the results. In the remaining part of this section first the major phenomena under consideration are defined and operationalized for the empirical research. The results of the survey are presented in section 4. Definition of Terms: The main phenomena considered in the research presented in this paper that need to be defined are: eCollaboration, eCollaboration tools and productivity. - Definition of eCollaboration: eCollaboration is defined with different scope by different authors. While [9] for example states that "Collaboration is about people working together." [1] provides an overview of definitions that are indifferent whether the parties who work together are people, groups or organizations or even machines. In this paper the focus lies on eCollaboration among human participants. Given this eCollaboration will be defined in accordance to [10], as "…collaboration among individuals engaged in a common task using electronic technologies.". The collaborating individuals considered in this research are at different locations. - Definition of eCollaboration Tools: There are various different terms for denoting collaboration technologies in literature. For example group support systems (GSS) [6], collaborative computing [1], E-Collaboration [2]. According to [2] typical functionalities of collaboration systems are: - Communication functionalities: bulletin boards, discussion, e-mail, online paging/messaging, chat, whiteboard and audio/video conferencing. - Coordination or process structuring (see also [22]) functionalities: task lists, project management, contact management, meeting scheduling tools, meeting minutes/records, support for specific workflow and similar. - Collaboration functionalities: screen and application sharing, surveys/pooling, files and document sharing, document and knowledge management. In this study the term eCollaboration tools will be used to denote tools that support communication, coordination and collaboration of individuals in specific collaboration settings. In accordance with [2] and [16] the available tool for support of eCollaboration can be divided in three groups: 1) Communication tools that basically support the communication as part of collaboration; 2) Coordination tools that provide support mainly for coordination activities within collaboration; 3) Collaboration tools that support extensive support for complex collaboration activities. - Definition of Productivity: “Productivity” describes in general the relation between an effort (“input”) and the benefit resulting from this effort (“output”): Output Productivity = Input The output and input are task and process specific. As a consequence also the measurement of productivity is task specific and is defined by task or process specific definition of the categories "Output" and "Input". In general research questions regarding the impact of eCollaboration on productivity can be operationalized as follows: - Does eCollaboration result in increased output per involved employee? - Does eCollaboration decrease the necessary input (for example, time or other resources) to achieve a defined result? 317 - Units of Observation: In order to be able to analyze the impact of the usage of eCollaboration tools on productivity, a fairly large population of employees involved in intensive eCollaboration was necessary. Such a population was identified in the participants of international European research projects. The European commission is funding in so called "Research Frameworks" international cooperative research projects that are carried out by international consortia of cooperating companies and universities. International cooperative research projects have a minimum duration of one year and involve intensive eCollaboration among the consortium partners scattered around different locations in Europe. European cooperation projects and participants in European projects are considered suitable units of observation because of the following characteristics: - European projects are international cooperation projects. According to the rules companies from at least two European companies from different countries need to be involved in a project, in order to have a valid consortium. The resulting collaboration settings are dispersed over several locations, involve several European nationalities and disciplines and eCollaboration is an important part of projects. - The goal of the European projects is collaborative research and development. Productivity is therefore an important goal of eCollaboration as well. Given the above characteristics of European projects and their participants, they can be considered as suitable units of analysis for empirical investigation of the impact of eCollaboration tools on productivity. Such projects are listed in the online CORDIS database (www.cordis.org). 150 project teams of the projects listed there were randomly selected and invited to participate in the survey. Survey Design: In order to design the survey questionnaire the general terms defined in section 2.1 to 2.4 needed to be operationalized for the specific settings of European research projects. - Operationalisation of the Construct "Usage of eCollaboration Tools": Based on the definition for eCollaboration tools provided above, the identified eCollaboration tools have been classified in three categories: communication, coordination, collaboration. For denoting the usage intensity of collaboration tools during collaboration five different stages were chosen: 0-20%, 20-40%, 40-60%, 60-80%. 80-100%. - Operationalization of the Construct "Impact on Productivity": As mentioned above, productivity can be improved either by increasing the output per time unit or decreasing the cost for producing it. Given the fact that international European research projects have different goals, it was not possible to operationalize the impact on productivity by operationalizing the category "Output". Thus, the impact on productivity was basically measured based on the impact on the category "Input". A positive impact on productivity is present, if fewer resources need to be involved in order to achieve the same result. Based on this and in accordance of the empirical studies of [12] the following constructs were defined: - The quality of the decisions and technical discussion with your colleagues were better when supported by eCollaboration tools. - The information asymmetry (deficit of information) in the team regarding available knowledge and persons was reduced by using eCollaboration tools. - The time to reach decisions decreased in eCollaboration settings. - Less travel was required due to usage of eCollaboration technology. - eCollaboration technology providing support for document and knowledge management reduces unproductive time as for example searching for persons and information. 318 Hypotheses Building: Based on the findings of the state-of-the-art in section 2 and the specific operationalization of the constructs under consideration of the specific setting of international European projects the following general hypotheses were defined: - H1: There is positive correlation among usage of eCollaboration tools and the quality of the decisions and technical discussions. - H2: Usage of eCollaboration tools is positive correlated with productivity of eCollaboration by diminishing information asymmetries. - H3: Usage of eCollaboration tools is positive correlated with productivity of eCollaboration by decreasing time to reach decisions. - H4: Usage of eCollaboration tools is positively correlated with productivity of eCollaboration by diminishing cost for travelling. - H5: Usage of eCollaboration tools is positively correlated with the productivity of eCollaborating individuals due to reducing unproductive time. 4. Survey Results Demography of Survey Participants: The questionnaire was send to participants of 150 randomly selected projects from the online CORDIS project database. Participants from 33 projects participated in the survey. In total 227 participants accessed the online questionnaire and 112 filled in the questionnaire completely. The participants in the survey were between 23 and 63 years old. They were located in 20 different European countries. 66.1% of the participants had more than 5 years of experience in eCollaboration. Results Related to Usage of Communication Tools: The usage of various eCommunication tools for collaboration was surprisingly low. The most applied tool is e-mail. No one of the participants has declared to be a non user of e-mail. The remaining communication tools are used by a lower number of respondents: - 40.6% of users do not use instant messaging, only about 15 participants use it more than 60% - 74.7% do not use electronic whiteboard, only 6 participant use it between 40 and 60%. - 73.5% do not use electronic bulletin boards; only 3 participants use it between 40- 60%. - 42.3% do not use forums, 34% use it up to 20% of the time, while only 7 participants use it more than 60% of the time - 71.4% do not use video conferencing at all, and 3 persons use it more than 60% of the time - 14.7% do not use teleconferencing at all - 44.6% do not use Skype at all. In general it can be concluded that there is significant usage of e-mail while the usage of all other communication tools is marginal. Usage of Coordination Tools: Most of the coordination tools show a marginal usage: shared calendar, routing and workflow, user directory and workflow support are not used at all respectively by 53.47 %, 61.62% , 49.00% and 69.00% of the respondents. The only type of coordination tool that showed a higher usage is meeting coordination. There are still 29.41% of non users of coordination tools, but at the same time also 38.83% users that use it up to 40% of their collaboration time. From the different kind of coordination tools, only tools for meeting coordination show a higher usage. All other tools are only insignificantly used by participants. Usage of Collaboration Tools: From the collaboration tools listed in the online survey, the highest usage was reported for: 319 - Document management systems with 25.0% non users and 23% that use it more than 60% of their time. - Collaboration portals are used by 66.66% of participants and 12,12% use it from 80-100% of their collaboration time. - Wikis seems to be increasingly adopted by respondents, as only 36.3% do not use it at all and 19 participants use it even more than 60% of their time. - Blogs and social bookmarking are less popular for project work, as 76.5% and respectively 85.4 of the participants do not use them at all. - Co-authoring tools are used by to a certain extent by 81.8% of the participants. The above findings show that specifically dedicated collaboration tools that provide a more integrated support for collaboration show a higher usage. Emerging tools resulting from Web 2.0 developments are starting to be used. From all Web 2.0 tools, the highest value was reported for Wikis. This reflects also the better suitability of Wikis for project work. Blogs are used less, while all other Web 2.0 tools show marginal usage by a very low number of participants. Interesting is that tools supporting classification as taxonomies or social bookmarking have also marginal usage. Summary of Findings Regarding Collaboration Tools: The above results regarding usage of collaboration tools show that: With respect to communication tools the most used tool is still e-mail. Even though some respondents also use other communication tools, their usage is marginal. Coordination tools are not broadly used as well. Some usage can be observed for shared calendar as well as routing and notification support. The category of collaboration tools comprises tools that offer a more integrated support as for example document management tools, collaboration portals or Wikis. These tools are used by a higher number of users and also with higher intensity than the other tools. In general, tools that offer integrated support show higher usage and intensity of usage. The more routine activities are handled manually, the less the positive effects of collaboration tools can be experienced. The preferences to integrated tools might also result from the specific nature of European projects. These projects are set up for a certain limited period of time. This means that very soon after the start of the project a common environment has to be set up. In many cases then an environment is chosen that offers most of the needed functionalities and is available to the consortium. Tools that offer single functionality might be preferred less, as at the current stage of technology development, it is not easy possible to link them into a common environment. The results also show that none of the tools for which a certain level of usage was reported, are used 100% of the time. Most of them are used about 20% of the time. This means that participants are switching among collaboration and non-collaboration mode. The non-collaboration mode is probably used for preparing individual contributions to the team. The switch between collaboration and individual time has to be supported in a way that it allows smooth transition between eCollaboration and individual work. Summary of Findings Regarding Impact on Productivity: In general the survey respondents reported to have experienced a positive effect of eCollaboration on productivity. The following percentage of respondents either "Strongly Agree" or "Agree" that: a) eCollaboration diminishes unproductive time: 79%; b) eCollaboration has a positive effect on travelling: 76.23%; c) eCollaboration decisions with better quality are made: 64.65%; d) eCollaboration has positive impact on information asymmetry: 64.36; e) less time is needed for reaching decisions: 47%. 320 5. Results from Hypotheses Testing The process of hypothesis testing followed the following procedure: 1) First the data sets, where any kind of usage of eCollaboration tools was reported, were identified. 2) Then an overall analysis of correlations among eCollaboration tools and impact on productivity was performed. 3) The initial general hypotheses given in section 3 were adjusted for the specific tool, for which a significant correlation to impact of productivity was identified. The hypotheses were than tested. 4) Finally, a complete analysis for the category of integrated tools was performed, because these tools were reported to be used most frequently. Testing of Hypothesis 1: The initial correlation analysis revealed that there is a significant positive correlation among "Usage of shared calendar", "Usage of routing and notification function" and "Usage of workflow support" (see table 1 below). Thus, hypotheses 1 was adjusted towards more specific hypotheses as follows: Shared calendar, usage of routing and notification functionality, and workflow support have a significant positive correlation with the quality of decisions made. Table 1: Correlation among coordination tools and impact on productivity Correlations Spearman's rho v_122 Quality of decisons v_123 Information asymmetry v_124 Time v_125 Less travel v_126 Unproductive Time Correlation Coefficient Sig. (2-tailed) N Correlation Coefficient Sig. (2-tailed) N Correlation Coefficient Sig. (2-tailed) N Correlation Coefficient Sig. (2-tailed) N Correlation Coefficient Sig. (2-tailed) N v_97 Shared Calendar .473* .030 21 .264 .276 19 .250 .368 15 .175 .448 21 .205 .361 22 v_98 Meeting Coordination .024 .884 41 .001 .994 37 -.059 .746 33 .189 .231 42 -.008 .957 43 v_99 Routing and Notification .490* .033 19 .558* .020 17 .549 .052 13 .255 .264 21 .152 .501 22 v_100 User Directory .002 .991 23 .226 .311 22 .221 .377 18 -.209 .350 22 .120 .551 27 v_101 Workflow support .578* .049 12 .371 .262 11 .247 .555 8 .324 .280 13 -.050 .859 15 *. Correlation is significant at the 0.05 level (2-tailed). All thee hypotheses were supported by the data as all rs, that means the observed Spearman's rank correlation were not in the rejection reason. All three types of eCollaboration technologies actually provide support for routine activities and lessen the burden of coordination overhead in eCollaboration. As a result more time is available for discussion and decision making. Testing of Hypotheses 2: With respect to the variable "Diminishing of information asymmetry" positive correlation was observed only for tools providing routing and notification functionality (see table 4). Thus, H2 was tested in the following form: "Usage of routing and notification functionality has a significant positive correlation with the variable "Diminishing of information asymmetries". The hypotheses was supported by the data. Testing of Hypotheses 3: A significant positive correlation was observed among Wikis and "Time necessary to make decisions". The adjusted hypotheses, that "Usage of Wikis is positively correlated with time necessary to make decision" was supported by the data. This finding is in line with the core functionality of Wikis to support convergence of opinions and knowledge. 321 Testing of Hypotheses 4: Interesting is that H4 was not supported by the data for any of the tools. For all tools and for each category of tools separately there was no significant correlation among usage of eCollaboration tools and diminishing of the need and costs for travel. This finding contradicts the expectation that eCollaboration would reduce the need for travel within dispersed teams. However, it conforms the findings from qualitative research and case studies that face-toface meetings have an important role in eCollaboration [21]. Independent of the usage of eCollaboration and the ICT support for eCollaboration, face-to-face meetings are scheduled on a regular basis. Thus, the productivity gains of eCollaboration need to be achieved in other areas. Testing of Hypotheses 5: The hypothesis 5 was tested for all tools and each tool separately. Strong correlation was observed and the hypothesis was confirmed that there is positive impact of usage of document management tools and impact on diminishing unproductive time. Testing of the Impact of Document Management Tools: The eCollaboration tools for which the highest usage was reported are document management tools as document management systems, Wikis, Blogs and eCollaboration portals. The correlation to the variables related to productivity is given in table 2 below. Table 2: Correlation among document management tools and impact on productivity Correlations Spearman's rho v_108 Document Management System v_109 Wiki v_110 Blog v_123 v_126 Unproductive v_122 Quality Information v_125 Time of decisons asymmetry v_124 Time Less travel Correlation Coefficien .338** .122 .067 .176 .281** Sig. (2-tailed) .001 .229 .514 .081 .005 N 97 99 98 99 98 Correlation Coefficien .110 .069 .017 -.104 .023 Sig. (2-tailed) .278 .492 .869 .301 .823 N 99 101 100 101 100 Correlation Coefficien .077 -.127 -.003 -.035 .147 Sig. (2-tailed) .460 .214 .978 .736 .153 N 95 97 96 97 96 Correlation Coefficien .192 .007 -.038 .205* .206* Sig. (2-tailed) .061 .943 .712 .042 .043 N 96 98 97 98 97 v_115 Collaboration Portals (i.e. BSCW, Marattech, Google Groups etc ) comprising *. Correlation is significant at the 0.05 level (2-tailed). **. Correlation is significant at the 0.01 level (2-tailed). The analysis taking in consideration all tools together, was based on the following hypotheses: H6: The usage of eCollaboration tools providing support for document management (including automatic search, classification and similar) is positively correlated with the productivity on participants in eCollaboration. First a factor analysis for the most used collaboration tools providing support for document management and for the productivity variables was calculated. The subsequent correlation analysis is presented in table 3 below. 322 Table 3: Correlation matrix among factors for document management and productivity Correlations FAC1_3 Document Management Systems FAC1_3 Document Management Systems FAC1_4 Productivity Pearson Correlation Sig. (2-tailed) N Pearson Correlation Sig. (2-tailed) N FAC1_4 Productivity .319** .002 94 **. Correlation is significant at the 0.01 level (2-tailed). The critical value rP, 0,05 is 0.197 and rP, 0,01 is 0.256. The observed rP = 0.319, which means that the observed Pear's rank correlation coefficient (rp) is in the rejecting region for the null hypotheses at the significance level 0.01 ( rP ≥ rP ,0.01 → 0,319 ≥ 0, 256 ) and significance level 0.05 ( rP ≥ rP ,0.05 → 0,319 ≥ 0,197 ). The null hypothesis that there is no correlation has to be rejected on the 0.01 significance level. Hence, the data supports the hypotheses that collaboration tools providing support for document management have a positive impact on productivity. 6. Conclusion The paper presented the results of an empirical analysis of impact of the usage of eCollaboration tools on the productivity of involved employees. The unit of observation was international European cooperative research projects. The analysis revealed that the usage of document management systems as integrated solutions for collaboration support has a significant correlation with productivity. No correlation was detected in relation to diminishing of travelling time. These results confirm the findings of Lefevbre et al. [12] that no direct correlation among usage of eCollaboration tools to cost can be detected. Participants experience the main value from eCollaboration tools in the support with routine tasks that help to provide more time for the collaboration activities. As a result less time is needed to make decisions and also the quality of decisions improves. The above findings point furthermore out that the focus of the usage of eCollaboration tools has to be on support for routine activities and smooth integration with individual activities and tools. The presented research has several limitations: The evaluation was performed on project level by an anonymous online survey that was sent to project participants. The answers of the participants reflect the felt experiences of individuals with respect to eCollaboration and its impact. This means that only subjective measures are taken in consideration. 7. References [1] Alt, R. (2003). Collaborative Computing – der nächste Schritt im Business Networking, in: Beyer, L. Frick, D. Gadatsch, A., Maucher, I., and Paul, H. (Hrsg.), Vom E-Business zur E-Society. New Economy im Wandel. München: Hamp, 2003. [2] Bafoutsou, G. & Mentzas, G., Review and functional classification of collaborative systems, in: International Journal of Information Management, Bd. 22 (2002), S. 281-305. 323 [3] Cassivi, L.; Lefebvre, E.; Lefebvre, L. A.; Leger, P.M., The Impact of E-Collaboration tools on firm's performance. In: The International Journal of Logistics Management, Bd. 15 (2004), S. 91-110. [4] Collabortaion@Work 2006 - The 2006 report on new working environments and practices. European Commission. Luxembourg Office for Official Publications of the European Communities, October 2006. [5] Dasgupta, S.; Granger, M.; McGarry, N. User Acceptance of E-Collaboration Technology: An Extension of the Technology Acceptance Model. In: Group Decision and Nergotiation, Bd.11 (2002), S. 87-100. [6] Dennis, A. R., Wixom, B. H. & Vandenberg, R. J. Understanding fit and appropriation effects in group support systems via meta-analysis. In: MIS Quarterly, BD. 25 (2001), S. 167-193. [7] Eisenhard, K., Building Theories from Case Study Research, in: Academy of Management Review, Bd. 14 (1989), S. 532-550. [8] Furst, S, Blackburn, R.; Rosen, B. Virtual team effectiveness: a proposed research agenda, Information Systems, 1999, No. 9, S. 249-269. in: Journal of [9] Gartner, Hype Cycle for Collaboration and Communication. Stamford: Gartner, (2006). [10] Kock, N.; Nosek J., Expanding the Boundaries of E-Collaboration, in: IEEE Transaction on Professional Communication, Bd. 48 (2006). [11] Lefebvre, E.; Cassivi, L.; Lefebvre, L. A.; Leger, P.-M., E-Collaboration within one supply chain and its impact on firm's innovativeness and performance, in: Information Systems and e-Business Management, (2003), pp. 158-173. [12] Lefebvre, E.; Lefebvre, L. A.; Le Hen G.; Mendgen, R. (2006): Cross-Border E-Collaboration for New Product Development in the Automotive Industry. In: Proceedings of the 39th Hawaii International Conference on System Sciences. [13] Majchrzak, A., Rice, R.E., Malhotra, A. & King, N. Technology Adaptation: The case of a computer-supported inter-organizational virtual team. In: MIS Quarterly, Bd. 24 (2000), pp. 569-600. [14] May, A. & Carter, C., A case study of virtual team working in the European automotive industry, in: International Journal of Industrial Ergonomics, Bd. 27 (2001), pp. 171-186. [15] OECD, ICT and Economic Growth -Evidence From OECD Countries, Industries and Firms, 2003^. [16] O'Kelly, P. & Gotta, M., Trends in social software. Report for EDUCASE Center for Applied Research (with the Burton Group) 2006. Available online at: www.educase.edu. [17] Orlikowski, W.J., Learning from Notes: Organizational Issues in Groupware Implementation. In: Kling, R. (Hrsg.): Computerization and Controversy - Value Conflicts and Social Choices, Morgan Kaufmann, 1996, pp. 173-189. [18] Powell, Th. C. & Dent-Micaleff, A., Information Technology as Competitive Advantage: The Role of Human, Business, and Technology Resources, in: Strategic Management Journal, Bd. 18 (1997), pp. 375-405. [19] Powell, A.; Piccoli, G.; Blake, I., Virtual Teams: A Review of Current Literature and Directions for Future Research. In The Data Base for Advances in Information Systems - Bd. 35 (2004), pp. 6-36. [20] Schwabe, G.; Streiz, N.; Unland, R., CSCW-Kompendium: Lehr- und handbuch zum computerunterstuetzten kooperativen Arbeiten. Springer, Heidelberg, 2001. [21] Stanoevska-Slabeva, K.; Mirijamdotter, A.: "The Impact of eCollaboration". In: Proceedings of the eChallenges 2007 Conference, Delft, October 2007. [22] Zigurs, I.; Buckland, B.; Connolly J. R.; Wilson, V. E., A Test of Task-Technology Fit Theory for Group Support Systems. In: The DATA BASE for Advances in Information Systems, Bd. 30 (1999), pp. 34-50. 324 SERVICES FÜR RISIKO- UND COMPLIANCEMANAGEMENT Der wirtschaftliche Erfolg und die Wettbewerbsfähigkeit eines Unternehmens sind heutzutage zunehmend von der Flexibilität der Geschäftsprozesse und deren Unterstützung durch Dienste abhängig, welche von Informationssystemen bereitgestellt werden. Um diesen Anforderungen gerecht zu werden und um die Sicherheit sowie Zuverlässigkeit von Informationssystemen zu gewährleisten, wird der Beitrag von IT-Risikomanagement und IT-Governance immer wichtiger. Ein Indikator sind die Compliance-Anforderungen durch internationale Regularien, wie beispielsweise HIPAA, SOX, BASEL II und SOLVENCY II. Für den Track „Services für Risikound Compliancemanagement“ sind Beiträge relevant, die technische oder organisatorische Bereiche des IT-Risiko- und Compliance-Managements abdecken. Leitungsgremium: Günter Müller, Universität Freiburg (D) (Federführender) Stephanie Teufel, Universität Freiburg (CH) A Min Tjoa, Technische Universität Wien Programmkomitee: Hans Ulrich Buhl, Universität Augsburg Hannes Federarth, Universität Regensburg Dogan Kesdogan, Universität Siegen Hannes Lubich, British Telecom Global Services Louis Marinos, ENISA, Kreta EU Martin Reichenbach, Commerzbank Frankfurt Stefan Sackmann, Universität Freiburg Ingrid Schaumüller-Bichl, Fachhochschule Oberösterreich, Hagenberg Reinhold Thurner, Metasafe GmbH INTEGRATED INFORMATION SECURITY RISK MANAGEMENT – MERGING BUSINESS AND PROCESS FOCUSED APPROACHES Sebastian Sowa1, Lampros Tsinas2, Hanno Lenz3, Roland Gabriel4 Abstract Previous papers mostly dealt with specific views of information security management (either technical, organizational for instance). Recently, major progress has been achieved in the development of a business driven approach with BORIS (Business Oriented management of Information Security) and a process-oriented approach called ORBIT (Operational Risks in Business and IT). An integrated framework is being described in this paper that bases on the beneficial and complementary merge of both approaches. It supports management of an enterprise’s information security functions with a strong economic focus whereby it specifically links business and information security objectives. The methodology to be presented has proven to be reliable, user friendly, consistent and precise under real conditions over several years in enterprises with world wide presence. 1. Introduction 1.1. Situation Several models, methods and measures were introduced in the past each covering particular aspects of Information Security (IS) or information risk management. Most of the approaches focus primarily on technical issues but recently, also business oriented approaches for managing IS can be identified in the literacy (i.e. [1], [16]). But again, many of the approaches mainly focus on specialized fields without meeting the challenges of a holistically integrated and practicable concept. They lack in integrating the different interests of relevant actors and even more important, they lack in establishing a system that transparently links business with IS objectives and measures as well as these objectives and measures with a method for defining optimal investment policies. To handle these challenges, a framework for managing IS with a strong economic focus is presented in the following. This starts with the clarification of the appreciation of used terms and intended goals. 1 2 3 4 Ruhr-University of Bochum, Institute for E-Business Security (ISEB), GC 3/29, 44780 Bochum, Germany Munich Re, Koeniginstr. 107, 80802 Munich, Germany ERGO Insurance Group, Victoriaplatz 2, 40477 Düsseldorf, Germany Ruhr-University of Bochum, Chair of Business Informatics, GC 3/132, 44780 Bochum, Germany 327 1.2. Terms Information in this paper is defined as an explanatory, significant assertion that is part of the overall knowledge as well as it is can be seen as specific, from human beings interpreted technical or nontechnical processed data [7]. This definition is precisely in line with the ISO/IEC standards which state that information “can exist in many forms. It can be printed or written on paper, stored electronically, transmitted by post or by using electronic means, shown on films, or spoken in conversation” [9]. As consequence of the appreciation of information, IS has to cover technical as well as nontechnical topics. In this context, the ISO/IEC declares that whatever “form the information takes, or means by which it is shared or stored, it should always be appropriately protected. IS is the protection of information from a wide range of threats in order to ensure business continuity, minimize business risk, and maximize return on investments and business opportunities” [9]. 1.3. Goals The goals defined in this paper are in line with findings in several topic-near publications like [5] and [6], added with the result of several discussions to scientist, practitioners, and of reviews of content related papers [17]. R1: As IS is seen as business and strategic management topic, the Information Security Management (ISM) framework then has to enable executives to transparently link business to IS objectives. R2: The framework should support to answer questions about IS performance as well as it should support to address areas suitable or necessary to improve the performance influencing indicators. R3: The process of defining concrete and measurable indicators for the security target as well as for the current state in different levels of detail should be supported. R4: To close identified gaps, especially investment decisions have to be addressed in the context of the regarded business oriented management framework. Thereby, executives should be given support for the processes of finding and defining cost benefit balanced investment strategies. R5: When measures are running, the framework should offer a method for evaluation that can also be used for optimizing the economic and strategic performance of the overall IS infrastructure. R6: The methods defined have to be integrated into a management process that enables the continuously and especially sustainable business oriented ISM. To fulfil the requirements respectively to reach the goals, the present paper presents two already existing components, BORIS (Business Oriented management of Information Security) and ORBIT (Operational Risks in Business and IT), as well as it introduces the reader to a data model for the coexistence of the currently singularly successfully existent concepts in real environments. 2. BORIS Design 2.1. Overview To handle especially business oriented ISM issues, a framework for the Business Oriented management of Information Security (BORIS) was introduced by [17]. As seen in Figure 1, the framework consists of four layers whereby each layer covers particular aspects of strategic, tactical and operational ISM challenges. 328 1 Cost-BenefitToolbox Strategic Tactical Operational BORIS 2 3 business/information security alignment and performance management, benchmarking process and risk oriented numerical outgoings estimation cost benefit sheets or calculating the return on security investments tools for evaluation and optimization of information security infrastructures 4 integrated program management Figure 1: BORIS general topology The top level focuses on the business and ISM interaction, the second and third layers deal with linking the results of the strategic methods to specific IS objectives and with defining a balanced investment policy for implementing and managing measures targeted to close identified gaps. The fourth layer holds tools for the evaluation and optimization of IS infrastructures while an integrated program management rounds the framework of to ensure continuous effort of the tasks of interest. As the framework is presented in detail in [17], the current paragraphs have the goal of briefly recapitulating major findings and benefits. 2.2. Business Strategic Methods The top layer of BORIS deals with Business/Information Security Alignment and Performance management (BISAP). It consists of a transferring system for linking strategic as well as legal, regulatory, standard implied and contractual drivers to IS objectives and a scorecard system with which performance is measured. Here, the theoretical basis is laid by the Balanced Scorecard [10] that is widely accepted and adopted for several branches and industries as well as the general idea is used for years in the context of information management for instance (i.e. [7]). Because of the aim of connecting the BORIS system with an enterprise Balanced Scorecard, the business strategic method defined here integrates IS performance objectives and metrics in the traditional dimensions finance, customer, processes and future. An organizational dimension is added to the system to match with the requirements of several standards which accentuate the importance of organizational IS performance as well as a sixth dimension is added which covers the importance of the technological IS infrastructure. Analogue to the traditional Balanced Scorecard, also the dimensions of BISAP are connected through a knowledge-based steering methodology. The legal, regulatory, standard implied and contractual as well as strategic requirements are transferred to security objectives by the use of a systematic and formal defined process whereby relevant players such as the chief information officer, business process owners, and officers in charge of legal affairs for instance have to cooperatively agree to. Transferring tables thereby are offered to support this process: Business requirements (formulated in “business language”) here are linked to IS requirement without loosing the vital connection between them. It is only this explicitly applied connector philosophy between business and ISMS that validates the right to exist to any security control. 329 Benchmarking replenishes BISAP. As widely used and accepted method [14] it is anchored in BORIS to supports to identify the own level of maturity while the individual records of performance are set in relation to a peer group of interest. This offers to benefit from the results if data is correctly interpreted and the peers are of adequate competitive importance [13]. For BORIS, the Information Security Status Survey provided by the Information Security Forum (ISF) is currently used. To transfer benchmarking results in the next step to concrete improvement results, the strategies, objectives and identified gaps between the objectives and the current states in each of the six dimensions of the BISAP method are linked to process tactical methods. 2.3. Process Tactical Methods The Process and Risk Oriented Numerical Outgoings Estimation (PRONOE) method is introduced in detail by Tsinas [18]. It is directly linked to BISAP as it uses its output as operational guideline while the data processed in PRONOE again is delivered up to layer 1 in an aggregated format. PRONOE contains three components [17]: A risk assessment layer for determining the qualitative actual and debit, the (100- X)% rule for determining the quantitative debit and a process for the cost-benefit balancing comparison of the qualitative and quantitative actual and debit values which especially supports to address financial investment policy goals. Thereby, a management committee , consisting of the persons in charge of business management, should determine the objectives what concretely means to agree on a specific level of acceptable risk exposure and on the areas which require additional risk controls. This gives the qualitative debit. The qualitative actual then is assessed using common risk assessment methods like scorecards for instance. For BORIS, a questionnaire offered by the ISF is used to address the status of the risk areas in currently five dimensions [8]: Criticality, Level of threat, Business impact, Vulnerability – status of arrangements, and Vulnerability – special circumstances. Recently, effort is spending to transform this layer from the proprietary ISF scorecard to an ISO 27001 aligned structure. This would allow everybody to use this model, and certainly it would support the ISO dimension with eleven risk areas. The (100- X)% rule transfers the level of acceptable risk to protection areas, defined as 100 percent minus the accepted level of risk in percentage. It bases on the assumption that each assertion about acceptable risks directly implicates that any further risks are not accepted and that each assertion also defines the investment areas necessary to reduce the overlapping risk levels to acceptable ones. For cost-benefit balancing comparisons, the actual investment situation is assessed and set in relation to the debits calculated by using the (100-x)% rule. As information is generated here about whether the established security level could have been realized using defined resources or whether an objective has been left unmet because sufficient resources were not available, this element of PRONOE supports to address the appropriateness of the IS investments [12]. 2.4. Financial Tactical Methods Whenever measures have to be implemented in order to reduce defined overlapping risk levels, questions about investments on a more detailed level arise. Here, BORIS offers the calculation of the Return on Security Investment (RoSI) when accurate data is available. If accurate data is missing, is not existing or statistically significant, Cost Benefit Sheets (CoBS) as presented by Sowa et al. [17] should be used. CoBS are quite similar to the approach of Schneier [15] whereby a systematic documentation can enhance CoBS quality as well as it enabled to appropriately justify but also revise investment decision. 330 2.5. Operational Evaluation and Optimization So far, strategic, process and financial tactical methods are introduced and linked to each other what demonstrates a closed chain from business to security business management. For rounding of the quantum of methods, the operational level of BORIS holds methods for evaluating the current controls infrastructure (ECI) as well as for optimizing the necessary controls infrastructure (OCI). As a comprehensive method capable to deal with ECI/OCI is presented by Klempt [11], and Klempt et al. [14], the authors of the current paper abdicate to discuss the method further on. Instead, the method for managing Operational Risks in Business and IT (ORBIT) is introduced in the following paragraphs. 3. ORBIT Design 3.1. Overview Unlike BORIS, ORBIT is a methodology presented first-time in this paper to the scientific community. Chronologically it was designed well after BORIS was already implemented and a certain level maturity achieved. Thereby, the design of ORBIT benefits of underlying effort in the development of BORIS and completes the missing design elements systematically. ORBIT is a system aiming to control operational risks in business processes in regard to information technology consisting of elements called Knowledge Cells (KCs). KCs can be understood as data container that incorporate diverse kinds of topic related information and associations that are of specific interest for a targeted group of information consumer [2], [3]. The system bases on the assumptions that information risks are the primary ones of concern and that technology itself in the consequence has no own risks – apart from internal dependencies towards itself (recursion). Additionally, it is assumed that the requirements of the essential security objectives – availability, integrity, confidentiality and authenticity – are defined within the business processes. From background of this, the following KCs lay the foundation of the approach presented here: Business process, IT system, application system, threat, risk, and measure. In general, the model could be extended to meet the requirements of any kind of operational risks. However, this is not the subject of the paper presented. The KC business process contains the descriptions of an enterprise's core processes, especially in regard to the four typical IS objectives while the KC IT system holds information about the enterprises’ essential IT systems and networks. In addition to general information, the description here also includes the currently achieved degree of performance in regard to the IS objectives of interest, for example, the current confidentiality level or availability class. An IT system thereby may be a platform that supports 1…n business processes. It directly serves as a support for the business process and is described in its own KC. Kinds of threats are also described in a separate KC whereby a threat is defined as one possible scenario or a threatening potential that could impact IT systems [4]. Closely related with threats, the KC risk holds information derived from the quantification of possible threat impacts, whereby common methods like multiplying a probability of occurrence with possible impacts are being used. Finally, the KC measure contains possible actions to achieve IS objectives. As seen in Figure 2, the KCs are linked to each other whereby attributed associations are being used. 331 Role Business process Application Person Protection need Relevance Measure Risk IT system Threat Control Figure 2: ORBIT – Typology 3.2. Method The systemic approach for visualizing the essential IT risks in regard to the core business activities of an enterprise implies to logically link the relevant KCs. Thereby, business processes, IT systems and risks are of essential importance for what reason their relations and the main connected KCs up to measures as seen in Figure 3 are being discussed in more detail in the following. Role Business process Application Person Protection need Relevance Measure Risk IT system Threat Control Figure 3: ORBIT – Essential KCs Business process – IT system: This link enables the identification of dependencies of business processes and IT systems. Here, the targeted level, e.g. the required level of availability of an IT system for a business process, can be compared to the current condition. Thereby, a requirement is fulfilled if all systems comply with the requirements of the particular business process while a requirement is not fulfilled if one or more IT systems deviate from target conditions towards unstable 332 ones. A requirement is surpassed if all IT systems do not undercut the target condition and single ones even hold a higher security level. A comparison of target and current conditions allows a dedicated assessment of necessary measures on the basis of direct dependencies between business processes and IT systems. IT system – Threat: Standardized threat catalogs support in defining individual threat scenarios for an enterprise's IT. Thereby, a scenario can be relevant for 1...n IT systems whereby mainly threats are regarded that may lead to hostile risks when quantifying. Therefore, the reference of a risk and a business process can be created after the quantification of the threat. In the context of vulnerability assessments, threats are being analyzed that jeopardize the proper operation of IT components and can therefore lead to noncompliant security objectives. A differentiation of threats, e.g. with regard to location and type of interface, has to be carried out. Threat – Risk: Threat scenarios that affect single or accumulations of IT systems here are carried over to quantifications. A quantification is the classification of a threat in regard to its probability of occurrence and impact. The levels of probability range from almost impossible to very certain, effects are classified by using a range of insignificant up to hostile. Intrinsic connections allow risks to be allocated to business processes through the relation of threats towards the IT systems. Risk – Measure: For the purpose of risk controllability, risk measures (i.e. controls) have to be implied that observe at least one risk component (the probability of occurrence or the impact) as well as they should reduce the individual classified value. Here, a decision to take a risk and, at the same time, keep a corresponding amount of capital as a reserve, is also to be considered as a IS measure. This special measure is then employed when the investment of the IS measure is higher than the amount of loss, quantified by the department. The quantification of threats finally leads to a survey of risks that have to be controlled as shown in Figure 4. Probability of occurence almost certain very probale Q1 Q2 Focus on risk accumulation control essential Q3 Q4 Ri27 Ri23 probable rather improbale Focus on crisis management almost impossible insignificant minor essential servere hostile Impact Figure 4: ORBIT – Risk matrix The risk matrix is separated into four parts – following industry best practices. In quadrant Q1, the focus lays on the control of accumulated risks. Here, it is analyzed if the risk also occurs in other sectors of business and if there are any correlations with other risks for instance. Shifting to Q2, the 333 criticalities of risks like those of Ri23 and Ri27 are of such height that they need constant observation. Risks that are categorized in Q3 should undergo yearly evaluation. In Q4, the main focus is laid on crisis management. Enterprises should be prepared for worst-case scenarios here for instance. At the point of the risk assessment, the level of threat is defined considering all measures set up for risk control in this context. This so called net risk method is used as a hypothetical assignment of threat levels under the theoretical assumption that no minimizing measures were implemented (gross risk method) is not convenient as it doesn’t reflect the de facto situation. As far as further measures in regard to the net risks have to be planned, the corresponding risk can be evaluated at the next interval under consideration of the degree of implementation. The authors accentuate thereby that the implementation of a regular reassessment process has to be anchored in this management system – starting to run after the implementation of relevant measures at the latest. 4. Merging the Approaches: A generic Data Model for the Integrated Information Security Risk Management After introducing BORIS and ORBIT, the current chapter intends to present a generic data model that bases on the merge of BORIS and ORBIT resulting in a powerful and practicable framework for the business and process focused information security risk management. This data model relies on the fact, that no matter what the management methodology finally is, at the end of the day, the person in charge for the information security risk management functions has to deal with certain key questions like budget, staff, services, strategy, skills, and certainly controls management (e.g. selection and application of proper measurements for the minimization of the information security risks). Thus, this person needs tools capable to support him in answering these questions. Starting to compare BORIS and ORBIT, one of the first results is that both models have a common nominator: The “control management”. No matter, where the need for the selection of a control (i.e. implementation of SPAM-filter, or a security awareness programs for instance) is driven from, it is finally based on a scorecard evaluation of security respectively risk drivers as well as on an appropriate analysis of the cost-benefit situation in this context. An integrated database which contains comprehensively the results of the scorecard evaluations (either from BORIS or/and ORBIT) then is leading to a selection of a control for the driver (a policy or risk for instance) identified. Thereby, to strongly base controls management here on business and economic principles, only those controls will be implemented, which have passed the cost-benefit analysis successfully. Otherwise, because it might become traceable that some of the controls might cause higher investment than the expected benefit, they’ll be rejected. Thus, the role of ISM executives (i.e. CISO or CSO) can be supported in regard to decisions about the adequate control selection as well as it can enhance the productivity of the implemented controls while at the same time the efficiency can be increased. Nonetheless, ISM will still have to deal with decisions and management regarding the budget, skills, strategy, service and people in the IS organization which are not focused on in this paper. Realistically and based on the actual experience of the authors, the merge of BORIS and ORBIT as visualized through Figure 5 is highly enticing and promising to become a leading edge method for information security risk management. Regarding the defined goals at the beginning of this paper, the presented framework can fulfil all of them. As BORIS layer one holds a system for aligning business to security objectives supported by the linkage of the KCs business processes up to risks, R1 is fulfilled. As the scorecard system out- 334 lined in the BORIS concept enables to visualize IS performance on a high level of aggregation, R2 is reached in the consequence. Figure 5: Integrated Information Security Risk Management On the tactical layer, PRONOE is introduced to handle risk-investment oriented challenges. It holds a scorecard for assessing enterprises’ risk areas and supports in visualizing actual and debit state comparisons. Alternatively, ORBIT can be used in this context what collectively fulfils goal R3. Because both models are directly linked to the cost-benefit-toolbox of BORIS that is formed by its layers 2 and 3, offering support for dealing with concrete investment decisions, R4 is reached. Thereby, PRONOE offers the opportunity of calibrating different screws in regard to the individual denotation of a risk area, in regard to the interdependencies of risks as well as in regard to the aggregation criteria for the management summary [17]. In addition to the cost-benefit-toolbox, the ECI and OCI methods help in identifying areas of necessary action from the bottom-up perspective what enables to reach goal R5. A program management cycle that can be overlapping BORIS, including the ORBIT world, is rounding off the framwork in order to link the different tools in a planned and systematic matter, finally fulfilling R6. The structure of the framework is evaluated by interviewing several scientists and IS professionals as well as most parts of BORIS as well as ORBIT in its full structure are already implemented and running successfully in real-time environments of enterprises with world-wide presence. 5. Conclusion and Outlook The paper introduces a comprehensive model for the integrated security risk management, which is vital for any public or private organization. The higher the degree of implementation of the presented model, the higher is the expectation to see optimization of expenses on the one (i.e. minimization) and of the efficiency on the other hand (i.e. maximization of the effectiveness). The authors strongly believe that it is a matter of time where methodologies like the described ones will dominate the behaviour of IS professionals. The main reason for this assumption is, BORIS and ORBIT as well as the introduced common framework “speak” the same language at the control level. 335 Although the paper presents a systematic and holistic concept, ongoing work has to be done. For instance, BORIS and ORBIT are productively used in industrial environments solitary but their integration is just on the design stage. Here, a detailed data-model has to be developed and furthermore used for the development of the database what is one of the most challenging but beneficial tasks. Indeed, the authors predict to have the integrated method fully supported by a combined tool soon to be finalized. Tremendous effort has to be spend to have this vision realized, and the effort itself has to be a subject of decision making and furthermore to show the positive economic impact, as any other “security control”. In other respects, any further work in this direction will become obsolete – which is not going to be the case, as the author experienced so far. Nevertheless, the authors believe that the current versions of BORIS and ORBIT already enable enterprises to overcome several difficulties in the daily life of ISM. It helps to get a transparent insight into the gaps to identify not only what to do but what to do aligned to business goals and financial balance. 6. References [1] ANDERSON, R.; MOORE, T., The Economics of Information Security, in: Science, Vol. 314, No. 5799 (2006). [2] BAGNARA, S., Towards Telework in Call Centres, Euro-Telework Project Report, November 2000. [3] BARBERÁ TOMÁS, D.; DE LOS REYES LÓPEZ, E.; PAGE DEL POZO, Á; LACUESTA, J. S., ‘Contextualized knowledge’. Insights from the Organizational Memory of a Research Institute, Triple Helix 5, The Capitalization of Knowledge: cognitive, economic, social & cultural aspects, Center, Turin, Italy, 18.21.05.2005. [4] BSI, Standard 100-1, Information Security Management System (ISMS), Version 1.0, Federal Office for Information Security (BSI), Bonn 2005. [5] CAVUSOGLU, H., Economics of IT-Security Management, in: J. L. Camp; S. Lewis (Ed.), Economics of Information Security, Boston et al. 2004. [6] CAVUSOGLU, H.; CAVUSOGLU, H.; RAGHUNATHAN, S., Economics of IT Security Management: Four Improvements to current Security Practices, in: Communications of AIS, Vol. 2004, No. 14 (2004). [7] GABRIEL, R., BEIER, D., Informationsmanagement in Organisationen, Stuttgart 2003. [8] INFORMATION SECURITY FORUM, Fundamental Information Risk Management (FIRM), 2008. [9] INTERNATIONAL ORGANIZATION FOR STANDARDIZATION, ISO/IEC 27001:2005: Information technology - Security techniques - Information security management systems – Requirements, Geneva 2005. [10] KAPLAN, R. S., NORTON, D. P., Using the Balanced Scorecard as a Strategic Management System, in: Harvard Business Review, Vol. 74, No. 1 (1996). [11] KLEMPT, P., Effiziente Reduktion von IT-Risiken im Rahmen des Risikomanagementprozesses, Bochum 2007. [12] KLEMPT, P.; SCHMIDPETER, H.; SOWA, S.; TSINAS, L., Business Oriented Information Security Management – A Layered Approach, in: R. Meersman; Z. Tari (Eds.), On the Move to Meaningful Internet Systems 2007: CoopIS, DOA, ODBASE, GADA, and IS, Berlin et al. 2007. [13] LAPIDE, L., Questions to Ask when Reviewing the Benchmarking Data, in: Journal of Business Forecasting, Vol. 25, No. 4 (2007). [14] POWELL, R., The Boom in Benchmarking Studies, in: Journal of Financial Planning, Vol. 20, No. 7 (2007). [15] SCHNEIER, B., Beyond Fear, Thinking Sensibly About Security in an Uncertain World, New York 2006. [16] SOO HOO, K. J., How Much Is Enough? A Risk Management Approach to Computer Security, Workshop on Economics and Information Security, University of California Berkeley, CA 2002. [17] SOWA, S.; TSINAS, L.; GABRIEL, R., BORIS – Business ORiented management of Information Security, Workshop on the Economics of Information Security, Dartmouth College, Hanover, NH, 25.-28.06.2008. [18] TSINAS, L., PRONOE, Process and Risk Oriented Numerical Outgoings Estimation – Vorschlag für eine Methodik zur risikoorientierten Kosten-Nutzen-Balance im Informations-Sicherheits-Management, in: KES, Zeitschrift für Informations-Sicherheit, Vol. 23, No. 4 (2007). 336 EINE RISIKOBASIERTE METHODE FÜR IMPLEMENTIERUNG UND BETRIEB VON GMP KONFORMER IT INFRASTRUKTUR AM BEISPIEL USER- UND IDENTITY MANAGEMENT Peter Brandstetter1, Barbara Ginda, Stefan Tautscher2 Kurzfassung Pharmazeutische Betriebe unterliegen besonderen rechtlichen Vorgaben für das Qualitätsmanagement. Dies gilt sowohl für die Produktion als auch für IT Systeme, die für die Produktion verwendet werden. Die Einhaltung wird von nationalen und internationalen Behörden (FDA, EMEA) überprüft. Der vorliegende Aufsatz beschäftigt sich mit diesen Vorgaben und deren Anwendung auf IT Infrastruktur, wobei ein risikobasiertes Vorgehen im Allgemeinen vorgestellt wird und spezifische Probleme bei der Umsetzung am Beispiel einer zentralen Benutzervergabe diskutiert werden. 1 Vorwort Pharmaunternehmen unterliegen in ihrer Arbeit strengen behördlichen Auflagen, die darauf abzielen, die Gefährdung der Patienten durch fehlerhafte bzw. qualitativ minderwertige Arzneimittel zu minimieren. Ziel der zuständigen Behörden wie etwa der FDA (Food and Drug Administration, Arzneimittelzulassungsbehörde der Vereinigten Staaten) oder der Europäischen Kommission ist es, durch strenge Vorschriften und regelmäßige Kontrollen, so genannten Inspektionen, sicherzustellen, dass das Pharmaunternehmen ein ausreichend gutes und ausgereiftes Qualitätsmanagementsystem nach den Vorgaben der Guten Herstellungspraxis (Good Manufacturing Practice - GMP3) besitzt und dieses bei der Herstellung seiner Produkte auch befolgt. Ein Bestandteil jedes Qualitätsmanagementsystems das sich an den Richtlinien der guten Herstellpraxis orientiert, ist das Instrumentarium der „Validierung“, also die Prüfung einer These durch Bereitstellung eines objektiven Nachweises. Vereinfacht gesagt, dient der Prozess einer Validierung dazu, sicherzustellen, dass ein Prozess oder eine Methode den vom Benutzer definierten Spezifikationen entspricht. Ebenfalls zu erwähnen ist in diesem Zusammenhang der Begriff der Qualifizierung von Geräten. Unter Qualifizierung versteht man die Beweisführung, dass Ausrüstungsgegenstände einwandfrei arbeiten und tatsächlich zu den erwarteten Ergebnissen führen. 1 CSC Intercell 3 Neben GMP gibt aus es auch noch andere Vorgaben, die im Allgemeinen unter dem Kürzel GxP zusammengefasst werden. 2 337 Die im pharmazeutischen Bereich übliche behördliche Definition der Begriffe Validierung bzw. Qualifizierung lässt sich jedoch auch auf den IT Bereich anwenden. Im Allgemeinen wird die dokumentierte Prüfung der Tauglichkeit von Computersystemen als Computervalidierung bezeichnet. Innerhalb der Computervalidierung wiederum unterscheidet man meist zwischen Softwarevalidierung und Hardwarequalifizierung. Bei Softwarevalidierungsprojekten liegt der Fokus auf der Prüfung der Tauglichkeit der Software hinsichtlich ihrer Unterstützung für den abzubildenden Geschäftsprozess. Hardwarequalifizierung dient der Tauglichkeitsprüfung der Geräteteile, die für den Einsatz einer Anwendungssoftware notwendig sind. Um also eine Software validieren zu können, muss zuvor die zugrunde liegende Hardware qualifiziert werden. In dem hier vorliegenden Aufsatz wird eine Methode für die GMP konforme Implementierung und den Betrieb von IT Infrastruktur vorgestellt. Dabei wird nicht zwischen Software und Hardware unterschieden sondern zwischen Anwendungssoftware (Software, die Geschäftsprozesse unterstützt, wie ERP System, LIMS, etc.) und der dazu notwendigen zugrundeliegenden Infrastruktur. Der Begriff IT Infrastruktur wird dabei folgendermaßen definiert: „Gesamtheit aller Computersysteme eines Betriebes bestehend aus der Hardware, Netzwerkkomponenten, Betriebssoftware (jedoch ausgenommen der Geschäftsanwendungen) sowie die zugrunde liegenden Prozesse und Prozeduren, um den Betrieb der Computer Systeme gewährleisten zu können.“ Die IT Infrastruktur Komponenten lassen sich in folgende 3 Kernbereiche unterteilen: • Server: zentralisierte Hardware, das dort installierte Betriebssystem sowie unterstützende Infrastruktur Applikationen (Virenschutz, Datensicherung, etc.). • Netzwerk: Router, Switches, Verkabelungs-Infrastruktur sowie unterstützende Infrastruktur Applikationen (Netzwerk- Verwaltungsprogramme, Firewalls, etc.) • Clients: dezentrale Anwender-Hardware, die darauf installierten Betriebssysteme sowie unterstützende Infrastruktur Applikationen (z.B.: lokale Virenschutzprogramme). Die Planung und Implementierung von IT Infrastruktur ist dem Software-Lebenszyklusmodell ähnlich im Unterschied zur Betriebsführung, wo Infrastruktur sehr häufigen Änderungen unterworfen ist. Der direkte Einfluss von Infrastruktur auf produktrelevante Daten ist jedoch vergleichsweise gering zu dem einer Anwendungssoftware. Daher ist nicht die Funktion einer einzelnen Komponente, sondern das Zusammenspiel und die richtige Konfiguration von entscheidender Bedeutung. Man spricht deshalb bei Infrastruktur nicht von „Validierung“ sondern üblicherweise von „Under Compliance“ [1] (unter Kontrolle durch Einhaltung von Verhaltensmaßregeln). „Under Compliance“ bedeutet in diesem Zusammenhang, dass die Planung, Organisation, Installation, Verwendung und Verwaltung der IT Infrastruktur kontrolliert und dokumentiert wird. 2 Methode der IT Infrastrukturqualifizierung In diesem Kapitel wird anhand eines Modells versucht eine Abgrenzung zwischen Infrastruktur und Anwendungssoftware zu schaffen, wobei die Infrastruktur in 2 Ebenen eingeteilt wird. Diese an sich künstliche Zweiteilung erfolgt, um für die unterschiedlichen Ebenen entsprechend ihrer Komplexität und daher schlussendlich ihres möglichen Fehlerrisikos andere Qualitätsstandards und –maßnahmen zu setzen. Dieses hier vorgestellte Modell und die Vorgehensweise hinsichtlich Validierung/Qualifizierung ist das Ergebnis aus verschiedenen Projekte sowohl unterschiedlicher IT Umgebungen als auch unterschiedlich großer IT Abteilungen und basiert auf Industriestandards wie dem GAMP VModell [1] und ITIL [5]. 338 Klassische Vorgehensmodelle 2.1.1 V-Modell In der Computervalidierung gilt das V-Modell wie es auch im GAMP [1] als Basismodell verwendet wird, als quasi Standard. Auf der linken Seite, die als Entwurfsphase betrachtet werden kann unterscheidet man zwischen Anforderungsdefinition (auch Lastenheft oder User Requirements Specification = URS), funktionaler Spezifikation (auch Pflichtenheft oder Functional Specification = FS) und technischem Entwurf (DS = Design Specification). Abbildung 1: V-Modell nach GAMP Jeder dieser Spezifikationsphasen steht eine Qualifizierungsphase (Testphase) gegenüber. Im Rahmen der Qualifizierung wird die korrekte Installation aller Komponenten (IQ = Installation Qualification), ein detaillierter Funktionstest (OQ = Operational Qualification) und ein Gesamttest des Produktivsystems (PQ = Performance Qualification) durchgeführt. Um den Detaillierungsgrad der Qualifizierungstests zu bestimmen, wird häufig auch eine funktionale Risikoanalyse durchgeführt (siehe auch Kapitel 2.1.3). Das V-Modell ist ein sehr allgemein gültiger Rahmen, der durchaus auch verschiedenste Softwareentwicklungsmethoden, wie z.B.: Spiralmodell, extreme Programming, etc. zulässt. 2.1.2 ITIL Abbildung 2: Management Strategien nach ITIL V2 339 Im Bereich Infrastrukturmanagement wird in der Praxis häufig ein an ITIL [5] angelehntes Modell angewendet. In Abbildung 2: Management Strategien nach ITIL V2 eine Übersichtsdarstellung der vom ITIL Modell abgedeckten Prozesse. Sowohl das V-Modell, als auch die ITIL Prozesse bilden die Basis für die hier vorgestellte Infrastrukturqualifizierung. Qualifizierung von IT Infrastruktur 2.1.3 Risikobetrachtung – Risiko Management Da die Validierung von IT einen nicht unerheblichen Aufwand bedeutet, hat sich ein risikobasiertes Verfahren etabliert, wo der Aufwand der Qualitätssicherungsmaßnahmen in Relation zu dem möglichen Einfluss einer Funktion oder einer Komponente auf die Qualität des pharmazeutischen Produktes bzw. das Leben des Patienten gestellt wird. Es gilt also, je mehr eine Funktion bzw. eine Komponente das zu produzierende Arzneimittel beeinflusst, desto besser muss auch dessen korrekte Funktionsweise abgesichert werden. Abbildung 3: Risikomanagement nach ICH Q9 Risk Management ist als ein ständig begleitender Prozess zu sehen. Sowohl in der Entwurfsphase und der Implementierung, als auch im Betrieb werden mögliche Risiken betrachtet und entsprechende Maßnahmen (z.B.: redundante Server oder detaillierte Funktionstests) zur Risikominimierung gesetzt. In Abbildung 3: Risikomanagement nach ICH Q9 [4] ist ein allgemein üblicher Riskomanagement Prozess dargestellt. 340 2.1.4 Modell einer Infrastrukturqualifizierung Abbildung 4: Infrastruktur Qualifizierungsmodell Das wesentliche Ziel der Computervalidierung ist es, zu gewährleisten, dass IT Systeme, welche die Qualität der Medikamentenproduktion und somit die Gesundheit des Patienten gefährden könnten, korrekt funktionieren. Mit Risikomanagement werden die Qualitätssicherungsmaßnahmen auf die Bereiche konzentriert, die höheren Einfluss auf die Qualität des pharmazeutischen oder medizintechnischen Produktes haben. Betrachtet man nun die unterschiedlichen Komponenten einer typischen IT Landschaft, so ist aus dem Gesichtspunkt der Computervalidierung heraus eine Aufteilung in Applikation und Infrastruktur sinnvoll (siehe Abbildung 4: Infrastruktur Qualifizierungsmodell), da auf Applikationsebene noch sehr deutlich die Kritikalität einer Applikation von einer anderen hinsichtlich der Patientensicherheit unterschieden werden kann, und natürlich auch auf funktionaler Ebene innerhalb einer bestimmten Applikation. Gerade bei Hardware und vor allem zentralen Komponenten, wie Server, virtuelle Server, Netzwerk, SAN, etc, wo eine physische Einheit unterschiedliche Applikationen bedient, ist diese Vorgehensweise nicht mehr möglich. Andererseits ist in dieser Risikobetrachtung auch der Grad an Standardisierung zu berücksichtigen und auch die Fehlertoleranz einer Komponente. Aufgrund von deutlich höherer Standardisierung, die allein durch das mögliche Zusammenspiel von Komponenten unterschiedlicher Hersteller notwendig ist und auch nachdrücklicher verfolgt wird (z.B.: Festplatten unterschiedlichster Hersteller funktionieren in einem PC), kann Hardware weniger fehleranfällig eingestuft werden, als etwa eine individuell erstellte Software. Außerdem besitzen Hardware und auch z.B.: Netzwerkprotokolle üblicherweise sehr robuste Fehlerkorrekturmechanismen, oder zumindest Fehlererkennungsfunktionen, was das mögliche Risiko eines unerkannten Fehlverhaltens noch weiter senkt. Ähnlich gelagert sind Infrastrukturdienste, die unterschiedlichen Applikationen zur Verfügung stehen, wie z.B.: Dateisystem, Druckdienste, Netzwerkprotokolle, etc. In unserem Qualifizierungsmodell verstehen wir unter dem Begriff Infrastrukturdienste jene Software, die nicht ausschließlich von einer Applikation genutzt wird, sondern vielmehr so gebaut ist, dass viele unterschiedliche Anwendungen sich ihrer Funktionen bedienen. Schon durch diesen Umstand müssen solche Dienste robuste gut definierte Schnittstellen aufweisen, die auch eine Fehlerkorrektur oder -erkennung ermöglichen. Weiters sind in unserer Betrachtung Infrastrukturdienste als Standardkomponenten anzusehen, die sich einer großen Verbreitung erfreuen. Aufgrund des hohen Verbreitungsgrades ist die Wahrscheinlichkeit, dass Fehler schnell 341 erkannt werden sehr hoch. Bei der Qualifizierung von Infrastrukturdiensten ist jedoch eine gesonderte Risikobetrachtung für jeden Dienst sinnvoll und abhängig davon die Teststrategie festzulegen. Zusätzlich wird die Funktionalität der Hardware und von Infrastrukturdiensten auch bei der Überprüfung der Applikation implizit mitgetestet. Aus diesen Umständen heraus ist ein detaillierter Funktionstest von Hardware und Infrastrukturdiensten nicht notwendig, vielmehr ist es wichtig, korrekte Installation und Konfiguration sicherzustellen und zwar nicht nur zum Zeitpunkt der Inbetriebnahme, sondern auch über den gesamten Lebenszyklus hinweg (siehe auch 0). Vor allem wenn IT als einziges Medium für die Aufzeichnung und Archivierung von produktionsrelevanten Daten verwendet wird, ist eine sichere und korrekte Langzeitspeicherung dieser elektronischen Daten zu gewährleisten. Eine gute Backup und Archivierungsstrategie ist daher unumgänglich, wie auch ein Disaster Recovery Konzept (z.B.: in Anlehnung an die ITGrundschutzkataloge des deutschen Bundesministeriums für Informationssicherheit [3]). Im Gegensatz zur Sicherung korrekter Funktionalität bei der Validierung von Software ist daher der Fokus bei Qualifizierung von Infrastruktur auf korrekte Installation und Konfiguration und sichere Betriebsführung zu legen. Um dies zu gewährleisten ist auf Basis eines verkürzten V-Modelles der folgende Prozess sinnvoll (Abbildung 5: Qualifizierungsprozess). Specification & Design Phase Planning Risk Assessment & Qualification Planning IQ and OQ Operation & Maintenance Phase Qualification End Abbildung 5: Qualifizierungsprozess 2.1.5 Specification & Design Phase Ähnlich wie bei Geschäftsanwendungen sind die Anforderungen an die Infrastruktur noch systemunabhängig zu definieren. Vor allem Sicherheitsaspekte wie Datensicherheit und Zugriffssicherheit sind dabei zu beachten, aber auch Kapazitative wie Datenmengen, Antwortzeiten, etc. Ausgehend von den Anforderungen wird dann sowohl die entsprechende Hardware ausgewählt, als auch Konfigurationsparameter für Dienste bestimmt. Dabei ist natürlich auch die vorhandene Infrastruktur mit einzubeziehen. Schon beim Design von Infrastruktur empfiehlt es sich, Risikomanagementwerkzeuge anzuwenden, um wichtige Parameter zu dokumentieren, und sicherzustellen, dass diese auch in der Designphase nicht vergessen werden. Für kritische 342 Parameter ist eine Festlegung vor der Installation notwendig, denn nur so kann erreicht werden, dass durch die Durchsicht von Dokumenten eine entsprechende fachliche Überprüfung des Designs erfolgt und auch in Form von Testprotokollen die echte Konfiguration der Infrastruktur mit den geplanten Werten übereinstimmt. Standardisierter Checklisten und Dokumentationsvorlagen für unterschiedliche Komponenten (z.B.: Vorlage für Design eines Windows Servers) erleichtern diese Phase. 2.1.6 Risk Assessment & Qualification Planning Die Überprüfung bei der Installation und Konfiguration beschränkt sich auf eben die im Design festgelegten kritischen Parameter. Ob eine Konfiguration nur durch Prüfen der Einstellung oder auch durch Testen der entsprechenden Funktion verifiziert wird, hängt von der Komplexität der Einstellungsmöglichkeit und der Kritikalität der Komponente ab und wird über eine Risikoanalyse bestimmt. Ein weiterer wesentlicher Faktor, der eine reibungslos funktionierende Infrastruktur ermöglicht, ist die richtige Qualifikation der Administratoren. Es ist daher auf entsprechende Ausbildung eigener Mitarbeiter oder Nachweise von Drittfirmen zu achten. 2.1.7 IQ & OQ Nach Abschuss der Planung der durchzuführenden Tests erfolgt nun die dokumentierte Installation (IQ = Installation Qualification) und die Funktionsüberprüfung (OQ = Operational Qualification). Es muss darauf geachtet werden, dass alle durchgeführten Schritte nachvollziehbar dokumentiert werden, da vor allem diese Dokumentation den Nachweis liefert, der im Rahmen von Behördeninspektionen geprüft wird. 2.1.8 Operation & Maintenance Nach Abschluss der Tests kann die Infrastruktur verwendet werden. Aus Qualitätssicht sind dabei vor allem Fehler- und Änderungsmanagement wichtig, die im folgenden Unterkapitel beschrieben wird. 2.1.9 Traceability Dass auch alle im Design festgelegten Vorgaben geprüft werden wird über die sogenannte Rückverfolgbarkeit (Traceability) garantiert. Diese kann entweder in einem eigenen Dokument erfolgen, oder aber auch in allen Phasendokumenten enthalten sein. Fehler- und Änderungsmanagement Neben der kontrollierten Installation/Konfiguration von Infrastruktur ist der sichere Betrieb ein wichtiges Qualitätsmerkmal. Industriestandardmodelle wie ITIL bieten sehr detaillierte Methoden für den sicheren Betrieb von Infrastruktur. Hier sollen nur die wichtigsten Aspekte der zwei wesentlichsten Prozesse (Fehler- und Änderungsmanagement) erläutert werden, um den Anforderungen einer qualifizierten Infrastruktur nach FDA und GMP zu genügen. 2.1.10 Fehlermanagement Um mögliche Fehlfunktionen erstens zu erkennen und zweitens entsprechend der Kritikalität zu beheben, sind folgende Dinge zu beachten: 1. definierter Fehlermeldungsprozess (Helpdesk) 2. Fehlerqualifizierung 3. nachvollziehbare Fehlerbehebung 343 Um langfristig die Fehlerzahl zu senken, ist präventives Fehlermanagement ein probates Mittel. Dabei werden periodisch durch Analyse der gemeldeten Fehler Präventivmaßnahmen abgeleitet und umgesetzt. 2.1.11 Änderungsmanagement Im Gegensatz zum Fehlermanagement, geht es bei Änderungsmanagement um die kontrollierte Umsetzung von Änderungen und nicht der Behebung eines Fehlverhaltens. Dabei ist zwar ein ähnlicher Prozess zu durchlaufen, jedoch ist zusätzlich noch eine Genehmigung vor der Durchführung einzuplanen und die bereits bestehende Dokumentation anzupassen. Konsequentes Änderungsmanagement ist für eine kontrollierte Infrastruktur unumgänglich. Andernfalls wird innerhalb kürzester Zeit aufgrund von nicht qualitätsgesicherten Anpassungen die gesamte Infrastruktur destabilisiert. Automatisierungswerkzeuge Durch die bereits erwähnte Häufigkeit der Änderungen bei Infrastruktur entsteht eine Flut an Daten, die sich ohne geeignete Automatisierung der Verwaltung der Daten nicht bewältigen lässt. Der Einsatz von computergestützten Systemen (Tools) zur Verwaltung der Infrastruktur darf jedoch zu keiner Verminderung hinsichtlich der Einhaltung von GxP-Richtlinien führen. Dies würde bedeuten, dass Software zur Automatisierung von Infrastruktur-Prozessen im selben Ausmaß wie Geschäftsanwendungen validiert werden müssten. GAMP 5 [1] schlägt jedoch ein anderes Vorgehen vor. Für sogenannte „Infrastruktur Software" (Netzwerküberwachungs-, Anti-Virus- und Konfigurationsverwaltung – Software, etc.) ist keine vollständige Validierung vorgeschrieben. Bei einfachen Tools, die „Out-of-the-Box“ ohne weitere aufwendige Konfiguration eingesetzt werden könnnen, genügt die kontrollierte und dokumentierte Installation (IQ) und ein einfacher Gesamttest der Funktionalität des Systems (PQ). Begründet wird diese Vorgehensweise mit der Ansicht, dass Infrastruktursoftware keinen direkten Einfluss auf die Sicherheit des Patienten hat, also ein deutlich geringeres Risiko darstellt. 3 Beispiel: Benutzerverwaltung und Authentifizierung Anhand des Beispieles Benutzerverwaltung und Authentifizierung werden wichtige Problemstellungen aus Sicht der risikobasierten IT Infrastrukturqualifizierung diskutiert, wobei der Schwerpunkt in der Darstellung der Anwendung von Risikomanagement liegt und daher detaillierte Schritte der Qualifizierung (Verification, Traceability, …) nicht explizit gezeigt werden. Das Risiko ist in diesem Fall der unbefugte Zugang zu Anwendungen den es weitestgehend zu verhindern gilt und den Anwendern dabei trotzdem höchstmöglichen Komfort zu gewähren. Userverwaltung für Qualifizierungsrelevante Infrastruktur: Designüberlegungen Im regulierten oder sicherheitskritischen Umfeld stellen sich zwei grundsätzliche Überlegungen unter der Betrachtung des oben genannten Risikos: • Will man den Anwendern ohne zusätzliche gesonderte Authentifizierung Zugriff zu GxP relevanten System geben ? • Wie kann eine, den Anforderungen hinsichtlich Flexibilität und GxP-Konformität entsprechende Userverwaltung mit einem zentralen Userverzeichnis hergestellt werden? Diese beiden Fragen zielen auf die prinzipielle Designentscheidung hin: zentrale Authentifizierungsinfrastruktur (= als Infrastrukturdienst) vs. getrennte Systeme für GxP und nichtGxP relevante Applikationen/Bereiche. 3.1.1 Zentrale Authentifizierung für GxP- und Nicht-GxP-relevante Systeme Wird ein zentraler Authentifizierungsserver verwendet, der sowohl von GxP- als auch von nichtGxP Anwendungen verwendet wird, so muss dieser zwangsläufig unter den strengeren GxP- 344 Richtlinen aufgesetzt und betrieben werden. Sämtliche Änderungen (z.B.: an den Rechten oder den Stammdaten) unterliegen dann dem Änderungsmanagement. Es muss aber auch möglich sein, dass nicht-GxP relevante Applikationen diesen Dienst verwenden können. Steht der Authentifizierungsserver etwa in einem getrennten Netzwerksegment, müssen entsprechende Anfragen zugelassen werden. In einfachen Systemen mag dies eine taugliche Möglichkeit darstellen, bei komplexeren Systemen, wenn beispielsweise auch Server aus einer DMZ Benutzer authentifizieren müssen (z.B.: Mail- oder Proxyserver) ist ein solches System aus sicherheitsrelevanten Aspekten nicht zielführend. 3.1.2 Getrennte Authentifizierungssysteme Alternativ können für die verschiedenen Sicherheitsbereiche (als solches kann eine GxP-Landschaft betrachtet werden) unterschiedliche Authentifizierungsserver implementiert werden, im vorliegenden Beispiel also ein Directory für nicht-GxP relevante Anwendungen sowie ein eigenes für alle GxP-kritischen Anwendungen. Dieses Setup hat mehrere Vorteile: • eigenes Login für den GxP-kritischen Bereich schafft Bewusstsein beim Benutzer (z.B.: Einhalten von SOPs erforderlich, …) ohne die grundsätzlichen Vorteile eines SSO (=Single Sign On Lösung) zu vernachlässigen (SSO jeweils innerhalb eines Bereiches), • höherer Sicherheitsstandard durchsetzbar, da die Anzahl und Art der Applikationen normalerweise kleiner ist, • keine Kommunikation zwischen GxP-Authentifizierungsserver und nicht-GxP Applikationen notwendig. Um den letzten Punkt sicherzustellen ist es notwendig, dass die Geschäftsanwendungen nicht am Benutzerclient installiert werden (dieser kann auch in der Regel nicht zwei unterschiedliche Benutzerkonten verwalten). Das kann relativ einfach z.B.: dadurch erreicht werden, indem alle Applikationen auf einem Terminal Server (TS) bereitgestellt werden, welcher sich im GxP-Bereich befindet. Am Client muss nun lediglich sichergestellt werden, dass die Kommunikation zwischen TS-client und dem TS verschlüsselt wird. Diese Variante hat allerdings einen Nachteil: Zwei verschiedene Server benötigen auch eine doppelte Benutzerverwaltung. Für die Benutzerkonten selbst sowie die reine Rechtevergabe (etwa Mitgliedschaft in verschiedenen Securitygruppen) mag dies kein allzu großer Nachteil sein, bei klassischen Stammdaten (etwa Telefonnummer, Emailadresse, Sozialversicherungsnummer, ...) ist die doppelte Pflege allerdings sehr mühsam und vor allem fehleranfällig. Zudem müssen oft Applikationen (z.B.: ein ERP-System) auf beide Datenbestände zugreifen (da ja nicht jeder Benutzer zwangsläufig ein login am GxP-System benötigt). Damit existiert aber nun eine Anzahl an Benutzern mit doppeltem Login, was Berichte z.B.: hinsichtlich der tatsächlichen Mitarbeiterzahl (basierend auf dem am System existierenden Accounts) erschwert. 3.1.3 Identitymanagement vs. Accountmanagement Eine Möglichkeit dem Problem der doppelten Stammdatenwartung beizukommen besteht darin, die unterschiedlichen Login- und Berechtigungsdaten (die Accounts) von den unveränderlichen Stammdaten (der Identity) zu trennen, d.h. man speichert alle personenbezogenen Daten auf einem getrennten System, dem „Identity Service“ und verknüpft lediglich mehrere System Accounts (z.B.: GxP- und nicht-GxP kritische Benutzerdaten) mit denen der physikalischen Person. Attribute, wie Telefonnummer usw., die nicht mit den Benutzerkonten zusammenhängen werden im Identitymanagement-System gespeichert. Im Directory des Authentifizierungsservers verbleiben lediglich die Login- und Berechtigungsinformationen sowie ein Link zur Person im Identity Directory. Selbst für Systeme mit einem lokalen Authentifizierungsmechanismus kann ein solches Vorgehen genutzt werden wenn die entsprechenden Schnittstellen zur Verfügung stehen. 345 Je nach Art der Daten und Verwendungszweck muss entschieden werden, ob dieses System GxPkritische Daten enthält oder nicht, im zweiten Fall kann dies auch von Personen, die nicht notwendigerweise eine Ausbildung im GxP-konformen Arbeiten besitzen (z.B.: die Personalabteilung) gewartet werden. Speziell bei Internetapplikationen gibt es derzeit schon Ansätze eines zentralen Identitymanagements, welches von verschiedenen Diensten verwendet wird (exemplarisch sei z.B.: die yahoo liveID erwähnt), im Firmenumfeld gibt es zum derzeitigen Zeitpunkt leider noch kein System (zumindest „Out-of-the-box“), welches eine Unterteilung in Account- („usercredentials“) und Identityinformationen (Stammdaten) ermöglicht. Dazu kommt, dass das zentrale Directory im Normalfall nicht alle Stammdaten einer Person erfasst (z.B.: Personaldaten), es zwar in den meisten Applikationen, die via zentralem Directory authentifizieren können, eine Verbindung zwischen Account- und Personentabelle gibt, diese im Regelfall jedoch als 1:1 Verbindung ausgeführt wird. Eine notwendige 1:n Verbindung (1 Personendatensatz für mehrere Systemaccounts) muss demnach meistens zusätzlich programmiert werden. Hinsichtlich der Validierung eines solchen Systems muss demnach mit einem größeren Aufwand gerechnet werden. Fazit Grundsätzlich können beim Design der Infrastruktur für GxP-relevante Applikationen mehrere Ansätze gewählt werden, wobei im Hinblick auf die Validierung des Gesamtsystems hierbei besonderes Augenmerk auf die Schnittstellen der Infrastruktur und der Systeme gelegt werden muss. Dies gilt im Besonderen für die Passwortauthentifizierung und Benutzerverwaltung: unterliegt die Verwaltung der Benutzerdaten keiner Kontrolle so kann das Gesamtsystem nie „Under Compliance“ sein. Weiters unterliegen GxP-relevante Systeme typischerweise höheren Sicherheitsanforderungen, weshalb auch die Schnittstellen der Authentifizierungsserver nach außen hin (in Zonen mit niedrigeren Sicherheitsansprüchen oder -möglichkeiten) möglichst gering gehalten werden müssen. Duplizierung der Authentifizierungsinfrastruktur ermöglicht es hier, die Vorteile eines zentralen Directories elegant mit den Anforderungen diverser Regularien in Einklang zu bringen. Die doppelte Wartung von Stammdaten stellt in diesem Zusammenhang ein Problem dar, einfache und standardisierte Lösungen existieren hierfür noch nicht. Will man dem Mehraufwand einer doppelten Stammdatenwartung durch Schaffung eines Identity Management Systems entgehen ist in jedem Fall Individualprogrammierung vonnöten, die aber wiederum unter dem Risikoaspekt erhöhter Fehleranfälligkeit betrachtet werden muss. 4 Literaturverzeichnis [1] International Society for Pharmaceutical Engineering (ISPE) (2008): GAMP 5. A risk-based approach to compliant GxP computerized systems [2] ISPE: GAMP Good Practice Guide: IT Infrastructure Control and Compliance. ISPE (2005) [3] Deutsches Bundesministerium für Informationssicherheit (2005): IT-Grundschutzkataloge. Standardwerk zur IT-Sicherheit. Köln: Bundesanzeiger-Verlag. BSI-Schriftenreihe. [4] Food and Drug Administratio (FDA): Guidance for Industry – Q9 – Quality Risk Management. Rockville (June 2006) [5] LATA, Arora; SHAILA Singh, POONAM Sharma: Managing Infrastructure using ITIL. Skill Soft Press (2007) 346 CONTINUOUS COMPLIANCE MONITORING IN ERP SYSTEMS - A METHOD FOR IDENTIFYING SEGREGATION OF DUTIES CONFLICTS Patrick Wolf, Nick Gehrke1 Abstract Segregation of Duties (SOD) can be seen as one major class of control activities within a company's Internal Control framework, contributing to the reliability of financial reporting. In recent years, SOD controls in terms of user access rights have experienced a surge of attention in particular, mostly due to the growing reliance of business processes on ERP systems. This paper presents a method for automatically identifying SOD conflicts in user access rights as one component of a continuous compliance monitoring framework. The paper further demonstrates the application of the proposed method in a real world project. 1. Introduction In recent years, the growing number of corporate scandals (e.g. Barings Bank, Enron, Worldcom, Siemens, Société Générale) has led to tighter regulatory and statutory requirements regarding a company's Internal Control over Financial Reporting (e.g. Sarbanes-Oxley-Act). According to the Committee of Sponsoring Organizations of the Treadway Commission (COSO), Internal Control can be defined as "a process, effected by an entity's board of directors, management and other personnel, designed to provide reasonable assurance regarding the achievement of objectives in the following categories: 1. Effectiveness and efficiency of operations. 2. Reliability of financial reporting. 3. Compliance with applicable laws and regulations" [6]. To ensure the achievement of these objectives, COSO proposes the implementation of a company-wide Internal Control framework consisting of five interrelated components: Control Environment, Risk Assessment, Control Activities, Information and Communication, and Monitoring [6]. The need for implementing a suitable and available Internal Control framework is also underlined by the aforementioned regulatory and statutory requirements [12]. Within a company's Internal Control framework, Segregation of Duties (SOD) can be classified as a major class of control activities. It contributes to the reliability of financial reporting [13] by preventing any single employee from having complete control over all phases (authorization, custody, record keeping and reconciliation) of a business transaction [15, 18], thus, avoiding a conflict of interests and preventing fraud [13, 14]. The term "fraud" is used in accordance with the 1 PricewaterhouseCoopers AG WPG, Hamburg, Germany 347 International Standard on Auditing (ISA) 240 and refers to "an intentional act by one or more individuals among management, those charged with governance, employees, or third parties, involving the use of deception to obtain an unjust or illegal advantage" [14]. If a company's Internal Control is not working effectively due to inadequate SOD, then fraudulent activities, such as misappropriation of assets and fraudulent financial reporting, may not be prevented which, in turn, could result in a material misstatement in the financial statements of the respective company [14]. According to a survey recently published by the accounting and consulting firm PricewaterhouseCoopers (PwC), the average loss from fraud over two years per company in 2007 was US$ 2,420,700 [16]. Considering the relevance of SOD for the effectiveness of a company's Internal Control over Financial Reporting, this paper proposes a method for identifying existing SOD conflicts in the user access rights of different enterprise resource planning (ERP) systems. From our practical experience, there is a strong demand for such a monitoring method, especially due to the growing reliance of business processes on ERP systems [9] and the latest corporate scandals (e.g. the Siemens AG has lately chosen Security Weaver as its global software platform for monitoring SOD conflicts2). While the continuous monitoring of SOD conflicts in ERP systems combined with the continuous monitoring of system transactions and system settings is recently marketed under the term "continuous compliance monitoring" by several consulting firms, such as PwC and KPMG, and software vendors, such as ACL CCM, Approva BizRights and Security Weaver, there seems to be a lack of scientific debate regarding continuous monitoring methods. This paper tries to fill this gap and is based on the Design Science paradigm [11]. The proposed method addresses a relevant business problem (see introduction) and constitutes a viable artefact according to Hevner et al. Research rigor is achieved by applying the established method engineering approach within the construction process. The practicability of the method is then evaluated in a real world project. The research contribution of the paper can be seen in bridging the gap between the practical and theoretical debate regarding continuous compliance monitoring. The remainder of the paper is structured as follows: In chapter 2, the method engineering approach is presented as the theoretical foundation of the method development process. Based on the understanding of the five constituent elements of a method (activities, outcomes, techniques, roles and metamodel), chapter 3 focuses on describing the most important elements of our proposed method for identifying SOD conflicts in system-based user access rights (activities, outcomes and techniques). Thus, the elements metamodel and roles will not be covered within this paper. In chapter 4, the method is evaluated by applying it in a real world project. Finally, a conclusion is given and further research needs are outlined. 2. Method Elements and Method Engineering According to Brinkkemper, the word method comes from the Greek "methodos", meaning way of investigation [4]. In the context of systems development, he defines a method as "an approach […] based on a specific way of thinking, consisting of directions and rules, structured in a systematic way in development activities with corresponding development products" [4]. Further definitions of methods have been given, for example, by [1], [2], [8] or [18]. A synopsis of these and other definitions can be found at [3] who derive four fundamental defining attributes of a method: goal oriented, systematically structured, principles-based, and intersubjectively repeatable. 2 http://www.reuters.com/article/pressRelease/idUS154425+25-Feb-2008+MW20080225 (Call-Up: 22/07/2008) 348 Method Engineering (ME) is an approach which has emerged in the IS field in the nineteen-eighties due to the "fundamental observation […] that no one method is equally suitable to all kinds of problem domains" [19]. Based on this observation, ME can be understood as an engineering discipline which focuses on the systematic design, construction and adoption of methods for various purposes (e.g. information systems development) [7]. Here, a method is not conceived "as a single intertwined and interdependent entity but as a set of disparate fragments" [10]. Gutzwiller has analyzed several ME approaches and derived the following five general elements of a method: "activity", "role", "outcome", "technique", and "metamodel" [8]. Again, an overview of alternative definitions can be found at [3]. According to Gutzwiller, an activity is a functional unit of action which aims at creating one or more defined outcomes (e.g. a functional specification). Activities may consist of sub-activities (forming a hierarchical structure) and can be ordered in a sequence (procedure model). Techniques describe in detail how a certain outcome or a group of logically interrelated outcomes is created. The metamodel is the conceptual data model of the outcomes and visualizes their overall interrelationships. Finally, roles are aggregations of certain activities required to fulfil a certain function within the company and are normally performed by employees or organizational units [8]. Based on the aforementioned understanding, the following chapter focuses on describing the activities, outcomes and techniques of our method for identifying SOD conflicts in ERP-systems as well as the interrelationships of these elements. Neither metamodels nor role aspects will be covered in this paper. The application of the method in a real world project is demonstrated in chapter 4. 3. Activities, Outcomes and Techniques of the Method The activities, outcomes and techniques of the proposed method are illustrated in Fig. 1. Fig. 1: Activities, outcomes and techniques of the SOD conflicts identification method 349 Process Scoping The process scoping activity is the starting point of the presented method and aims at identifying those processes which will later be subject to the SOD analysis. This selection should be based on a thorough assessment of each process in terms of the probability of fraud occurrence and the expected extent of such events. Typical examples of high risk processes in most companies are the purchase-to-pay process (P2P) or the order-to-cash (O2C) process. Assessment techniques, like interviews and questionnaires, should especially take into account the complexity of a certain process, such as degree of automatization and interfaces, past fraud cases, existing opportunities to commit fraud (e.g. ineffective controls), as well as employees' incentives (e.g. existing pressure, personal fraud justification) [17]. Process Analysis The aim of the process analysis activity is to gain a thorough understanding of the selected processes by decomposing each process in its flow of activities and by identifying the organizational entities and information systems (e.g. ERP systems) which are involved in performing these activities. Techniques that should be used for gathering the required information are interviews, questionnaires and observations. Process modelling tools (e.g. IDS Scheer ARIS, BOC ADONIS) might be used in order to facilitate the systematic creation of the process models. SOD Ruleset Specification The main objective of the third activity is to specify the corporate SOD ruleset which constitutes the total set of SOD conflicts considered relevant for the regarded processes. An SOD conflict is defined as a combination of exactly two process activities which hold the risk of fraud if both are performed by the same individual. SOD conflicts are relevant if both the probability of their exploitation and the expected damage resulting from such an exploitation exceed a threshold depending on a company's risk appetite [5]. This threshold ensures the manageability of the ruleset by eliminating all non-relevant conflicts. The conflicts contained in the ruleset should be formulated in a system-independent way which guarantees that the ruleset is overall applicable and not tailored to a specific system environment. This becomes especially important when dealing with more than one company (e.g. an affiliated group) and different system environments (e.g. SAP, Baan). An exemplary extract of a ruleset is given in Tab. 1. Process P2P P2P P2P SOD Conflict Create & Maintain Vendor Records vs. Process Vendor Invoices Risk A user could set up fictitious vendor accounts (or alter existing accounts inappropriately) and create fictitious invoices resulting in unauthorized payments. Process Vendor Invoices vs. A user could process payments for fictitious or Process Outgoing Payments invalid invoices. Create & Maintain Vendor A user could set up fictitious vendor accounts (or Records vs. Process Outgoing alter existing accounts inappropriately) and initiate Payments payments to these fictitious vendors. Tab. 1: Exemplary extract of a SOD ruleset for the P2P process 350 SOD Ruleset Translation The next activity of the proposed method is based on the premise that all or most of the process activities considered in the SOD ruleset (e.g. "Create & Maintain Purchase Order") are actually performed in an ERP system, thus requiring the translation of the system-independent ruleset in the specific transaction codes, function codes, authorization objects, etc. of the respective system. Again, this activity becomes particularly important when dealing with several subsidiaries of an affiliated group which all perform basically the same processes (e.g. P2P) on heterogeneous ERP systems (e.g. SAP, Oracle Financials, Baan). In such a case, the ruleset must be consistently tailored to each ERP system. A practical example is given in paragraph 4.3. Live Data Extraction and Transformation After having translated the SOD ruleset, the fifth activity aims at extracting the current user access rights from the relevant database tables of the productive ERP systems and transforming that data in a standardized format for analysis purposes. In order to automate the extraction, the implementation of customized Standard Query Language (SQL)-scripts which may be triggered periodically is recommended. The first step in creating such a script consists of identifying the relevant database tables which contain the user access rights data. In an ERP system supporting purely role based access rights, the tables illustrated in Tab. 2 should be considered at minimum. Table User Master Data Transaction Master Data Role Master Data Mapping Users To Roles Description Contains all users of the system Contains all possible business transactions supported by the system Contains all roles defined in the system Contains all relationships of users and roles. A role can be assigned to multiple users and a user can have multiple roles (m:n). Mapping Roles to Contains all relationships of roles and business transactions. A role can Transactions contain multiple business transactions and a transaction can be assigned to multiple roles (m:n). Tab. 2: Relevant user access rights tables in a role based access rights system The automated transformation of the contents of the identified tables in a standardized format by using appropriate SQL queries can then be seen as the second step. However, in the case of ERP systems whose authorization mechanisms are not purely role based, additional data transformations must be developed. Typical issues which might be encountered are: (1) access rights are directly assigned to users without using roles or in addition to existing roles; or (2) roles do not only contain business transactions (positive list), but also entries with explicit negations of transactions (negative list). In such cases, constellations must be considered where one role grants one user access to a specific transaction and another role negates this access at the same time. SOD Analysis Within this activity, the standardized data extracts from the previous step are taken and analyzed in order to determine existing SOD conflicts in the user access rights assigned for the productive ERP systems. For each user and each conflict of the translated SOD ruleset, it must be checked if the respective user disposes of sufficient access rights to perform both activities of the analyzed conflict. In such a case, the result report of the SOD analysis should show the existing conflict together with additional information (e.g. user ID, conflicting access rights) to allow the remediation of the conflicting access rights. An example of a report is given in paragraph 4.4. 351 4. Application of the Method in a Real World Project This chapter aims at demonstrating the application of the proposed method in a real world project. Firstly, a short overview is given describing the objectives and the general requirements of the project. Subsequently, the aforementioned activities, techniques and outcomes are described in the context of the project. Due to the sensitivity of the subject, all data have been made anonymous. Project Overview In the forefront of our project, the client had started to implement a continuous SOD compliance process based on the analysis tool Security Weaver (SW). Although SW is primarily focussed on SAP installations, the scope of the software was extended within the project to cover other NONSAP systems (e.g. Exact Globe, Baan, Oracle Financials) as well. At the end, more than 60 worldwide located installations of NON-SAP systems were integrated in the automated SOD compliance process. The activities performed in order to analyze the user access rights within those systems are illustrated in Fig. 2 and described below: (1) the current user access rights are extracted from each productive NON-SAP system on a regular basis; (2) the extracted data is transformed in a common standardized format; (3) the standardized data is transferred to the central SW instance (e.g. via FTP), uploaded and analyzed; (4)/(5) the results are made accessible via web interface allowing the system owners to download the reports for the purpose of remediation. 4 5 2 1 Data Extraction Decentral Decentral Decentral Non SAP Non SAP Non SAP System Systems Systems 3 File Transfer CSV-Files User Rights Central Security Weaver User WebInterface for decentralized Companies Report Download SoD Report SoD Report SoD Report Company xxx Fig. 2: Activities within an exemplary continuous SOD compliance process In the context of the overall SOD project, the main objective of our sub-project was to initially analyse the user access rights established in the productive NON-SAP systems of several selected subsidiaries with regard to existing SOD conflicts. The scope of the analysis was further limited to cover only P2P-related conflicts as well as some conflicts relating to the finance and the system administration process. SOD Ruleset Specification The SOD ruleset for the P2P process had already been defined by our client and, thus, marked the initial point of our sub-project. To obtain the ruleset, the client first identified all relevant activities performed within his P2P processes and then created an SOD matrix based on these activities to derive the potential conflicts. Tab. 3 shows an excerpt of the SOD matrix for the P2P process. The crosses indicate existing conflicts between the activities. 352 CMVR PVI POP MBA PIP X X CMVR X X PVI X X X POP X X MBA X PIP 3 Tab. 3: Exemplary SOD matrix for the P2P process SOD Ruleset Translation The system-specific translation of the P2P ruleset is demonstrated on the example of the NON-SAP system Exact Globe. Within Globe, the table "pwfunc" contains all transactions supported by the system. Tab. 4 shows an extract of this table. transactionID 650888 650892 650896 650925 652065 652066 exename Transactiontitle EBUDGETALLOCATION Budgets BALANCELIST Receivables history BALANCELIST Payables history ENTRYREPORT To be processed EFENTRY Invoices EFENTRY To create credit notes Tab. 4: Extract of transactions supported by Exact Globe To translate a specific conflict of the SOD ruleset, it is necessary to identify all transactionIDs contained in the table "pwfunc" which logically belong to one of the two activities that make up a conflict and assign those transactionIDs to the respective activity. It is immediately obvious that this activity requires a profound knowledge of the regarded ERP system and the transactions it supports. Tab. 5 illustrates the process activity "Process Vendor Invoices" tailored to Exact Globe. Process activity TransactionID GroupID Transaction Title Process Vendor Invoices G0000000018 08 Exchange rates Process Vendor Invoices G0000000054 NO Transactions Process Vendor Invoices G0000000062 NO Financial entries Process Vendor Invoices G0000000060 04 Enter Process Vendor Invoices G0000000068 NO Make recurring purchase entries Process Vendor Invoices G0000000063 NO Make recurring general journal entries Process Vendor Invoices G0000000121 07 Invoices & Bank/Cash Process Vendor Invoices G0000000102 08 Invoices & Bank/Cash Process Vendor Invoices G0000000119 04 Process Process Vendor Invoices G65047 NO Purchase Process Vendor Invoices G65076 NO General journal Process Vendor Invoices G65303 07 Exchange rates Tab. 5: Exemplary translation of the activity "Process Vendor Invoices" It should be noted that a user needs only one of the transactionIDs marked with a "NO" in the GroupID column of the table above to perform the activity "Process Vendor Invoices" within Exact Globe ("or"-conjunction). On the other hand, values other than "NO" in the GroupID column point out that a user must possess all transactionIDs belonging to the same group in order to be able to 3 Legend of abbreviations: Create & Maintain Vendor Records (CMVR), Process Vendor Invoices (PVI), Process Outgoing Payments (POP), Maintain Bank Accounts (MBA), Process Incoming Payments (PIP) 353 perform the activity "Process Vendor Invoices". In the case of group "04", only entering AND processing invoices is deemed critical. Users with access to only one of these transactions cannot perform the activity "Process Vendor Invoices" on their own. Live Data Extraction and SOD Analysis For obtaining the user access rights data from the productive NON-SAP systems, customized SQL scripts were created and implemented. The data transfer was performed using standardized csvfiles. The access rights data contained in the files was then uploaded into the central SW instance. Subsequently, the analysis of the user access rights data in terms of existing SOD conflicts was performed automatically in SW by applying the appropriate system-specific SOD ruleset to the uploaded data. A simplified exemplary result report showing one identified SOD conflict ("Maintain Vendor Records vs. Process Vendor Invoices") for the user "4711" is depicted in Tab. 6. The report also indicates the transactionIDs causing the conflict, the roles of the user containing the conflicting transactionIDs and the respective process activities to which the transactionIDs have been mapped. Based on the report, the existing conflict could be solved, for example, by revoking the user's access to transactionID 650476. Company User 100 4711 100 4711 100 4711 Conflict Process Activity Role Maintain Vendor Records vs. Process Vendor Invoices Maintain Vendor Records vs. Process Vendor Invoices Maintain Vendor Records vs. Process Vendor Invoices Maintain Vendor Master Records Maintain Vendor Master Records Process Vendor Invoices Sales invoices23456 00_PURCHASE AGENT 00_PURCHASE AGENT Transaction-ID 650124 650120 650476 Tab. 6: Simplified report of identified SOD conflicts At higher organizational levels, more aggregated reports are commonly demanded (e.g. existing SOD conflicts over all entities). Fig. 3 shows a scatter plot which we used within our project for reporting the initial status of SOD conflicts in several selected entities (C001 to C007) and the status after a first remediation (visualized via arrows) to the client's management. Fig. 3: SOD report graph showing the number of conflicts per entity (C001 to C007) 354 While the scatter plot in Fig. 3 shows only the total number of SOD conflicts for each entity, the graph in Fig. 4 gives more detailed information on the frequency of each single conflict. On the xaxis of the graph, the analyzed conflict IDs are shown (e.g. AP01 to AP15), whereas the y-axis indicates the percentage of ERP system users within the regarded entities (C001 to C007) having the respective conflict. A broken line occurs if a conflict is not applicable to the considered system. Fig. 4: SOD report graph showing the frequency of each conflict per entity 5. Conclusion This paper proposed a method for identifying existing SOD conflicts in the user access rights of different ERP systems. The method consists of six interrelated activities whose practicability was evaluated in a real world project. From this evaluation, some "lessons learned" can be derived: 1. The creation of a complete, accurate and consistent SOD ruleset without redundancies is highly important as it constitutes the basis for all subsequent activities. Thus, an independent quality assurance assessment of the ruleset should be performed prior to any implementation activities. 2. The system-specific translation of the ruleset demands highly experienced system users to ensure the accuracy and completeness of the mapping. Again, an independent quality assurance assessment has proved to be important. 3. In the case of ERP systems whose authorization mechanisms are not purely role-based, additional support tools for transforming the data into the required format had to be developed. These additional efforts should be considered when planning similar projects. 4. The redesign of user access rights in order to ensure compliance with the SOD principle may result in a substantial change of organizational work routines, e.g. if employees are not allowed to perform certain activities in the ERP systems anymore due to existing SOD violations. These required changes should be taken into account when starting an SOD project. The presented method constitutes a first step towards a comprehensive continuous compliance monitoring framework that addresses the particularities of complex ERP systems. Further research should focus on developing sound methods that can be used to automatically monitor system transactions and system settings. Due to the fact that issues with segregation of duties usually stem from a complex interaction of technical and non-technical activities that are usually not properly reflected in the master data of an ERP system alone, further research should also concentrate on the complex interplay of these types of activities and the media breaks that typically occur between them. 355 6. References [1] BALZERT, H.: Lehrbuch der Software-Technik, Spektrum Akademischer Verlag GmbH: Heidelberg/Berlin 1998. [2] BECKER, J. / KNACKSTEDT, R. / HOLTEN, R. / HANSMANN, H. / NEUMANN, S.: Konstruktion von Methodiken, in: Becker, J. / Grob, H. L. / Klein, St. / Kuchen, H. / Müller-Funk, U. / Vossen, G. (Eds.), Arbeitsbericht des Instituts für Wirtschaftsinformatik, No. 77, Universität Münster: Münster 2001. [3] BRAUN, C. / WORMANN, F. / HAFNER, M. / WINTER, R.: Method Construction A Core Approach to Organizational Engineering, in: Haddad, H. M. / Liebrock, L. M. / Omicini, A. / Wainwright, R. L. (Eds.), The 20th ACM Symposium on Applied Computing (SAC2005): Santa Fe, New Mexico USA, 2005, pp. 1295-1299. [4] BRINKKEMPER, S.: Method engineering: engineering of information systems development methods and tools, in: Information and Software Technology, No. 38, 1996, p. 275-280. [5] COMMITTEE OF THE SPONSORING ORGANIZATIONS OF THE TREADWAY COMMISSION: Enterprise Risk Management - Integrated Framework - Executive Summary, 2004. [6] COMMITTEE OF THE SPONSORING ORGANIZATIONS OF THE TREADWAY COMMISSION: Internal Control - Integrated Framework, o.J., Internet: http://www.coso.org/IC-IntegratedFramework-summary.htm (Call-Up: 22/07/2008) [7] GOEKEN, M.: Entwicklung von Data Warehouse Systemen: Anforderungsmanagement, Modellierung, Implementierung, Vieweg + Teubner: Wiesbaden 2006. [8] GUTZWILLER, T.: Das CC RIM-Referenzmodell für den Entwurf von betrieblichen, transaktionsorientierten Informationssystemen, Hochschule St. Gallen für Wirtschafts-, Rechts- und Sozialwissenschaften, Dissertation 1994. [9] HENDRAWIRAWAN, D. / TANRIVERDI, H. / ZETTERLUND, C. / HAKAM, H. / KIM, H. H. / PAIK, H.: ERP Security and Segregation of Duties Audit: A Framework for Building an Automated Solution, in: Information Systems Control Journal, Vol. 2, 2007, pp. 1-4. [10] HENDERSON-SELLERS, B. / GONZALEZ-PEREZ, C. / SEROUR, M.K. / FIRESMITH, D. G.: Method engineering and COTS evaluation, in: ACM SIGSOFT Software Engineering Notes, Vol. 30, No. 4, 2005. [11] HEVNER, A. R. / MARCH, S. T. / PARK, J. / RAM, S.: Design Science in Information Systems Research, in: MIS Quarterly, Vol. 28, No 1, 2004, pp. 75-105. [12] HÜLSBERG, F. / FELLER, S. / PARSOW, C.: Anti-Fraud-Management - Reduzierung von Haftungsrisiken und Vermögensschädigungen, in: ZRFG, Vol. 5, 2007, pp. 204-208. [13] INSTITUT DER WIRTSCHAFTSPRÜFER IN DEUTSCHLAND E.V.: IDW-Prüfungsstandard: Das interne Kontrollsystem im Rahmen der Abschlussprüfung (IDW PS 260), in: WPg, 2001, pp. 821ff. [14] INTERNATIONAL FEDERATION OF ACCOUNTANTS: International Standard on Auditing 240 (Revised) The Auditor's Responsibility to Consider Fraud in an Audit of Financial Statements, 2004. [15] LUECK, W.: Elemente eines Risiko-Managementsystems, in: Der Betrieb, Vol. 01/02, 1998, pp. 8-14. [16] PRICEWATERHOUSECOOPERS: Economic crime: people, culture and controls - The 4th biennal Global Economic Crime Survey, 2007. [17] RAMOS, M.: Auditors' Responsibility for Fraud Detection, in: Journal of Accountancy, Vol. 195, No. 1, 2003, pp. 28-36. [18] SCHEER, A.-W.: EDV-orientierte Betriebswirtschaftslehre: Grundlagen für ein effizientes Informationsmanagement, Springer, Berlin 1990. [19] TER HOFSTEDE, A.H.M. / VERHOEF, T.F.: On the feasibility of situational method engineering, in: Information Systems, Vol. 22, No. 6, 1997, pp. 401-422. 356 A RISK BASED APPROACH FOR SELECTING SERVICES IN BUSINESS PROCESS EXECUTION Stefan Sackmann, Lutz Lowis, Kai Kittel1 Abstract The vision of automated business processes within a service-oriented paradigm includes the flexible orchestration of IT services. Whenever alternative services are available for activities in an ITsupported business process, an automated decision is worth aspiring to. According to valueoriented management, this decision should be motivated economically and also requires taking account of risk. This paper presents a novel approach for assessing the risk of IT services, based on vulnerability information as can be obtained in the form of publicly available Common Vulnerability Scoring System (CVSS) data. 1. Automating IT service selection Market forces are raising companies’ ability to respond quickly and flexibly to changing demands, which is seen as one of the main competitive advantages of the future [1, 23]. To keep pace, directing business models towards automation is still regarded as an important strategic topic [25] and aligning the technological infrastructure to service oriented architecture (SOA) seems a feasible and promising way [10, 16]. Apparently, present SOA and standards such as BPEL or BPMN are still in need of improvement to satisfy business demands [29] and the present hype around service orientation is endangered by setbacks [13]. Nevertheless, prominent suppliers of hard- and software are already embodying service orientation into their products: IBM offers Websphere [19], SAP integrates Netweaver [6], and Microsoft uses services in Windows Vista [4]. Besides the technical feasibility of SOA, exploiting the full potential of services requires solutions to several business demands. In this contribution, the focus is laid on one of these issues: the automated selection between alternative IT services available for supporting the execution of business process activities. Since the ability of an IT service to meet business process-specific protection goals is crucial, a method for assessing the risk of an IT service within the context of the supported business process is developed. The method consists of two major parts: The first part proposes a new way to measure the probability of achieving protection goals within an IT service by assessing vulnerabilities. The second part extends business process models by an economic decision algorithm that also takes risk into consideration and enables an automated decision between alternative IT services in the concrete execution context. Addressing these two parts, the remainder of this contribution is structured as follows: in section 2, a layer-based model is introduced bringing University of Freiburg, Institute of Computer Science & Social Studies, Department of Telematics, Friedrichstrasse 50, 79098 Freiburg, Germany 1 357 the economic and technical view of IT risk together and serving as starting point for structuring IT services. Based upon this model, in section 3, a measure for the ability of an IT service to achieve protection goals from IT security research is presented and discussed. In section 4, this measure is integrated into an economic decision algorithm for business process activities taking the riskiness of alternative IT services into consideration. Subsequently, it is demonstrated how the algorithm works by means of an exemplified purchase process. The contribution concludes by discussing limitations of the method and by proposing possible solutions. 2. IT Risk Reference Model - Bridging the technical and economic view The challenges to a value-oriented risk management process and continuous risk assessment, resulting from a constantly changing IT support of business processes as in SOA, have been discussed in [20, 21]. Following the notion of service orientation, automating business processes means that services are not exclusively used for one specific business process but manifold. Furthermore, the orchestration of the IT services changes dynamically according to the business context and is not statically wired in advance at the time when the business process is designed. Since the economic risk depends on the business process supported, the riskiness of an IT service should be specified independently of its actual integration. Therefore, typical measures for assessing IT security that already include economic exposure, e.g. an annual loss expectancy (ALE) [3] or business adjusted risk (BAR) [12], are unsuitable. It seems more advisable to look for measures that characterize the riskiness of IT services in a form that can be integrated into the service description and thus, e.g., become part of a service or protection level agreement (SLA/PLA) [14]. The approach in hand has been developed with a focus on services provided within a trusted domain, i.e. a company’s internal services or external services of business partners under contractual relationship. Economic handling of IT risks Technological handling of IT risks Business Process IT Services / IT Infrastructure Vulnerabilities Threats Violations of protection goals disturb the business process and have (usually negative) effects on company results Attacks exploit vulnerabilities and violate protection goals Figure 1: IT Risk Reference Model [20] For measuring the riskiness of IT services, the measures used should rely on a systematic modeling of relations between causes and effects of IT risks. For this purpose, the IT Risk Reference Model has been developed [20] that is structured following a hierarchical abstraction layer model as used in computer science for reducing complexity, e.g. in network communication [28]. On the basis of four different layers (Figure 1), the economic, process-oriented view is brought together with the technical, threat-oriented view of IT risk. Beginning with the economic view, the top layer represents the “effects” and contains all activities of the business process that are regarded as assets from a risk perspective. The next layer contains all IT services and their underlying IT infrastructure representing IT resources for the superordinated process activities. Vulnerabilities constitute the “bridge” between the economic and the technical layers since they are possible points of attack for threats violating protection goals of the IT applications [24]. Thus, since a large part of attacks re358 sult from exploitation of known vulnerabilities (see e.g. [22]), the following layer represents the vulnerabilities of these applications, while the set of all known threats is part of the bottom layer representing the causes. Although the IT Risk Reference Model has been developed with a different focus on measuring changes between causes and effects of IT risk, the achievable link provides a suitable starting point for the aspired measure. Since vulnerabilities can only be identified in relation to protection goals [17], measuring the probabilities of an IT service to achieve protection goals that are relevant to superordinated business processes is seen as a promising approach. In IT security research, there are several protection goals discussed [5, 17, 30]. For the beginning, focusing on the three main protection goals, confidentiality, integrity, and availability (CIA), is proposed for mainly three reasons: firstly, since the riskiness of an IT service is highly dependent on the IT security achieved, these protection goals are relevant for business processes [18]. Secondly, there is a well established methodical understanding of these protection goals in IT security research [2]. Thirdly, focusing on high-level protection goals does not limit the applicability of the method: more context-specific protection goals can be considered. According to this view, an IT service is considered to be secure (no risk) if it has no known vulnerabilities affecting the IT service’s confidentiality, integrity, or availability of data or processes. Business Process C* = expected loss in case of violation of confidentiality I* = expected loss in case of violation of integrity A* = expected loss in case of violation of availability C*, I*, A* Decision: IT Service with minimal expected loss C 1 , I 1 , A1 C2 , I2 , A2 IT Service1 IT Service2 Cn , In , An … IT Servicen Ck = probability of service k‘s confidentiality Ik = probability of service k‘s integrity Ak = probability of service k‘s availability Figure 2: Protection goals – Linking business processes and IT service A decision-theory based selection requires two measures (Figure 2). Firstly, the damage resulting from non-achievement different protection goals has to be quantified according to the context of the business process. This could be realized either by relative evaluation (see, e.g., the POSeM model of [18]) or monetary assessment, e.g. in the form of expected loss and will be discussed in more detail in section 4. Secondly, it is necessary to determine the probability of an IT service violating the protection goals. For assessing these probabilities automatically, a new method is proposed in the following section. 3. Measuring IT Service Riskiness Following the IT Risk Reference Model, vulnerabilities are the key factor since they allow attackers to harm protection goals. It is assumed that not all known vulnerabilities can instantly be closed for economical and technical reasons (e.g., limited time and money, patches not available). Otherwise, a risk-based approach would be pointless. Prominent methods for identifying vulnerabilities are penetration tests [2] or source code analysis [7]. Furthermore, for the technical infrastructure on which the IT services run, vulnerabilities can be queried from publicly accessible vulnerability databases. This allows an initial estimation of a company’s security level by looking at the sheer 359 number of known vulnerabilities, as well as gauging the effects a given vulnerability’s exploitation would have on the individual IT security protection goals. 3.1. Vulnerability Information Sources The approach presented works with any vulnerability database that offers information on the CIA impact caused through exploiting a given vulnerability. In this contribution, the well known Common Vulnerabilities and Exposures (CVE) [8] database is used offering data according to the Common Vulnerability Scoring System (CVSS) as shown in Table 1. The Base Score Metrics not only indicate the impact of exploiting a vulnerability, but also where it can be exploited from, how complex the exploit is, and how often the attacker must authenticate to the target. The Temporal Score Metrics offer detailed information on the availability of an exploit, existing countermeasures, and the credibility of the vulnerability details. Table 1: CVE scheme and CVSS values [9] Unique CVE name: CVE-abcd-wxyz Affected Product/Service: [name and version] Original release date: mm/dd/yyyy; Last revised: mm/dd/yyyy; Source: [e.g.] US-CERT/NIST Overview [textual description] References to Advisories, Solutions, and Tools. [list of links to other databases, e.g., SecurityFocus] Vulnerable software and versions: Configuration [list of operating systems and patch levels] Technical Details Vulnerability Type: [e.g.] Input Validation (CWE-20); [links to CVE Standard Vulnerability Entries and Common Platform Enumeration] CVSS Base Score: 0 (Low) to 10 (High) (Impact Subscore 0 to 10, Exploitability Subscore 0 to 10) CVSS Temporal Score: 0 (Low) to 10 (High) CVSS v2 Vector: (AV:N/AC:L/Au:N/C:C/I:C/A:C) Published: mm/dd/yyyy CVSS metric group CVSS metric CVSS values Base Score Metrics Exploitability Metrics Access Vector local (0.395), adjacent network (0.646), network (1) Access Complexity low (0.71), medium (0.61), high (0.35) Authentication none (0.704), single (0.56), multiple (0.45) Impact Metrics Confidentiality Impact Temporal Score Metrics none (0), partial (0.275), complete (0.66) Integrity Impact none (0), partial (0.275), complete (0.66) Availability Impact none (0), partial (0.275), complete (0.66) Exploitability unproven (0.85), proof-of-concept (0.9), functional (0.95), high (1), not defined (1) Remediation Level official fix (0.87), temporary fix (0.9), workaround (0.95), unavailable (1), not defined (1) Report Confidence unconfirmed (0.9), uncorroborated (0.95), confirmed (1), not defined (1) At present, the vast majority of CVE entries relates to software applications other than web services. In future, once a critical amount of web services is in operational use, web service vulnerabilities can be expected to be listed in CVE or a similar database. Therefore, for assessing IT services, exemplary values of actual CVE entries for software applications are used in this contribution. 360 3.2. CVSS and Attack Probabilities In practice, attack probabilities often rely on subjective expert estimates given by, e.g., system administrators with a varying degree of experience, which is seen as a major drawback in the IT security field [27]. Since web services might come and go too quickly to allow expert estimates or even collecting historical data on the attack probabilities, assessing vulnerabilities might provide valuable information and extracting probabilities from CVSS data is seen as promising method: CVSS metrics reflect a strong link between threats, vulnerabilities, and the violation of protection goals. Also, a correlation between the effort in exploiting vulnerabilities and the probability of successful attacks can be assumed. Although CVSS metrics give, strictly spoken, no information about the actual probability of an attack, taking this link into consideration for a risk assessment can be expected to lead to more accurate results than existing methods for estimating attack probabilities. This issue is not yet fully analyzed and subject to further evaluation and research. However, once a suitable method for measuring attack probabilities for IT services should become evident, this could be incorporated into the proposed approach without any methodical change. 3.3. Measures for Protection Goals In its simplest form, CVSS calculates a score between 0 and 10 for any vulnerability in the database, representing the lowest threat level, 10 the highest. Following the CVSS calculation, the base score is calculated according to the following equation [9]: BaseScore = round _ to _ 1 _ decimal ((0.6 ⋅ Impact + 0.4 ⋅ Exploitability − 1.5) ⋅ f (Impact )) (1) The components Impact, Exploitability, and f (Impact) are calculated according to the following equations, whereby the absolute numbers are given by the CVSS method: Impact = 10.41 ⋅ (1 − (1 − ConfidentialityImpact ) ⋅ (1 − IntegrityImpact ) ⋅ (1 − AvailabilityImpact )) (2) Exploitability = 20 ⋅ AccessVector ⋅ AccessComplexity ⋅ Authentication (3) if Impact = 0 ⎧0 f (Impact ) = ⎨ ⎩1.176 otherwise (4) According to the temporal situation, the BaseScore can be combined with the temporal exploitability values to include information on automated exploits and fixes according to equation (5) and (6): TempBase = Exploitability ⋅ RemediationLevel ⋅ ReportConfidence (5) TemporalScore = round _ to _ 1 _ decimal (BaseScore ⋅ TempBase ) (6) However, neither the BaseScore nor the TemporalScore show which protection goal(s) the vulnerability under consideration puts at risk. Therefore, an adaptation of the calculation is proposed here for calculating the scores for each protection goal separately. This requires an adaptation of the CVSS values of the impact metrics by replacing equation (2). In order to keep the range of values between 0 and 10, the weights are adapted as follows without changing the basic method of CVSS: Table 2: Adjusted CIA impact values Metric Confidentiality Impact Integrity Impact Availability Impact Values none (0), partial (1.7), complete (10) none (0), partial (1.7), complete (10) none (0), partial (1.7), complete (10) 361 Accordingly, equation (4) is split up and adapted for each of the three protection goals: if ConfidentialityImpact = 0 ⎧0 f (CImpact ) = ⎨ ⎩1.176 otherwise (4a) if IntegrityImpact = 0 ⎧0 f (IImpact ) = ⎨ ⎩1.176 otherwise (4b) if AvailabilityImpact = 0 ⎧0 f ( AImpact ) = ⎨ ⎩1.176 otherwise (4c) Based on these adjustments, the probability that an exploit of the vulnerability under consideration will harm one of the protection goals can be calculated as follows: C = (0.6 ⋅ CImpact + 0.4 ⋅ Exploitability − 1.5) ⋅ f (CImpact ) ⋅ Temp ⋅ 0.1 with 0 ≤ C ≤ 1 (6a) I = (0.6 ⋅ IImpact + 0.4 ⋅ Exploitability − 1.5) ⋅ f (IImpact ) ⋅ Temp ⋅ 0.1 with 0 ≤ I ≤ 1 (6b) A = (0.6 ⋅ AImpact + 0.4 ⋅ Exploitability − 1.5) ⋅ f ( AImpact ) ⋅ Temp ⋅ 0.1 with 0 ≤ A ≤ 1 (6c) As single services can have several vulnerabilities, multiple CVSS scores must sometimes be combined. Following the approach of [24], the arithmetic average is used as total score. In the case where further information on dependencies between several vulnerabilities is available, e.g. that they can only be exploited in a specific order, this calculation of course can be replaced by more detailed approaches as, e.g., discussed in [26]. 3.4. Calculation Example With the adapted CVSS score at hand, every IT service can be assessed regarding its probability of achieving each of the protection goals. This is demonstrated for an exemplary service with three vulnerabilities (see Table 3) which will later be referred to when demonstrating the outstanding economic decision. Table 3: Sample vulnerability details IT Service1 CVSS metrics Access Vector Access Complexity Authentication Confidentiality Impact Integrity Impact Availability Impact Exploitability Remediation Level Report Confidence Values Vulnerability 1.1 local (0.395) high (0.35) none (0.704) partial (1.7), none (0) none (0) unproven (0.85) official fix (0.87) unconfirmed (0.9) Vulnerability 1.2 local (0.395) high (0.35) single (0.56) none (0) partial (1.7) none (0) unproven (0.85) unavailable (1) uncorroborated (0.95) Vulnerability 1.3 local (0.395) high (0.35) multiple (0.45) none (0) none (0) partial (1.7) high (1) unavailable (1) uncorroborated (0.95) The CIA-probabilities of exploitability for IT Service1 as well as the temporal scores can then be calculated according to equations (3) and (5). Inserting the results into equation (6a), (6b), or (6c), and calculating the corresponding impact with equation (4a), (4b), or (4c), the complete equation 362 for the three protection goals can be resolved. Using the exemplary values from vulnerabilities 1.1, 1.2, and 1.3 (see Table 3) leads to the following results. C = (0.6 ⋅ 1.7 + 0.4 ⋅ ( 20 ⋅ 0.395 ⋅ 0.35 ⋅ 0.704) − 1.5) ⋅ 1.176 ⋅ (0.85 ⋅ 0.87 ⋅ 0.9) ⋅ 0.1 = 0.023 I = (0.6 ⋅ 1.7 + 0.4 ⋅ ( 20 ⋅ 0.395 ⋅ 0.35 ⋅ 0.56) − 1.5) ⋅ 1.176 ⋅ (0.85 ⋅ 1 ⋅ 0.95) ⋅ 0.1 = 0.013 A = (0.6 ⋅ 1.7 + 0.4 ⋅ ( 20 ⋅ 0.395 ⋅ 0.35 ⋅ 0.45) − 1.5) ⋅ 1.176 ⋅ (1 ⋅ 1 ⋅ 0.95) ⋅ 0.1 = 0.002 In the same way, the CIA-probabilities for the other IT services can be calculated according to their vulnerabilities. Omitting the detailed values for brevity, the following vulnerabilities and probabilities are assumed. Table 4: Exemplary services and their vulnerabilities Vuln. # C I A 1.1 0.023 IT Service1 1.2 1.3 2.1 0.029 IT Service2 2.2 2.3 0.013 0.011 0.002 3.1 0.002 3.2 IT Service3 3.3 3.4 0.011 0.001 0.014 3.5 3.6 0.015 0.035 0.012 Given that vulnerabilities 1.1 to 1.3 can be found in IT Service1, IT Service2 has vulnerabilities 2.1 to 2.3, and vulnerabilities 3.1 to 3.6 are related to IT Service3, the resulting probabilities are shown in Figure 3. To combine the values of several vulnerabilities within one service, the arithmetic average is used as mentioned above. In addition, since low CVSS values stand for a low threat level, the values have to be inverted for getting the aspired probabilities: for example, vulnerability 2.1 in service 2 has a low threat level of 0.029 with regard to confidentiality, i.e. a high probability of 0.971 of achieving that protection goal. C1 = 0.977 I1 = 0.987 A1 = 0.998 C2 = 0.971 I2 = 0.989 A2 = 0.986 C3 = 0.9935 I3 = 0.992 A3 = 0.9765 IT Service1 IT Service2 IT Service3 Figure 3: Exemplary services with CIA probabilities 4. Automated Selection of IT Services The characterization of the IT services according to their capability to achieve the protection goals is only part of the information that is needed for an automated selection between alternative IT services at runtime. The missing part for an economic and value-oriented selection is an assessment of the expected loss for each protection goal in the case of its violation. These values mainly depend on the actual business process that is executed and typically varies from instance to instance. Therefore, the expected losses have to be determined context-specific for each instance. For example, one activity of a purchasing process might require sending a document to the supplier. A box of screws could be ordered with lower confidentiality than a special component that might inform competitors about a new product and thus imply a competitive disadvantage. Bringing together the CIA measures of the IT service with the CIA requirements of the business process facilitates a risk-based selection of the most suitable IT service at runtime. Thus, an orchestration of the IT services ex ante, i.e., when designing the business process, becomes obsolete and, assuming an appropriate extension of the business process model, can be delegated to the business process execution engine. 363 However, the required assessment of the expected loss in the case of a protection goal violation is a complex task and can hardly be realized by assessing each single activity of a business process that is supported by an IT service. Therefore, a hierarchical model is proposed where elements inherit their values from superordinated elements, e.g. a core processes from its superordinated business process. Such hierarchical models are very well known in business process management, e.g. within the framework of British Telecom [11] or the breakdown of business processes through to core processes and detailed processes [15]. If such a uniform “inheritance” is too broad, the values can be adapted on every level and for every instance of the modeled business process as needed. Equipping each IT service with CIA measures as described in section 3 and each IT supported activity of a business process with corresponding monetary values allows an automated decision between alternative IT services, taking not only costs but also risk into consideration. Then, the expected costs E of an IT service k can be calculated as sum of the direct costs (e.g. for using the service) and indirect costs (e.g. cost of changing between services) Costk and the expected loss in the event of a confidentiality breach LoC, loss of integrity LoI, and non-availability LoA: E k = Cost k + (1 − C k ) ⋅ LoC + (1 − I k ) ⋅ LoI + (1 − Ak ) ⋅ LoA (7) The expected costs have to be calculated for every IT service that comes into question to support the considered activity of the business process. According to a value-oriented and a risk-neutral decision strategy, the service which results in the lowest expected costs is to be chosen. For demonstration purposes, the example above is revived: a business process activity requires sending a document and there are three functionally identical IT services (e.g. e-mail, Internet form via https, and EDI) available with their CIA measures as described in section 3.4. The direct costs for sending the document amount to 0.01 € for IT Service1, 0.02 € for IT Service2, and 1.10 € for IT Service3. Indirect costs are ignored for keeping the example simple. In the first scenario, when ordering a box of screws, a violation of confidentiality would result in no loss, a violation of integrity would cost 25.00 € due to sending back the wrong box, and non-availability of the service would cost 1.70 €. Calculating the expected costs for each service shows that IT Service2 is the one to be chosen: E1 = 0.01€ + (1 − 0.977) ⋅ 0.00€ + (1 − 0.987) ⋅ 25.00€ + (1 − 0.998) ⋅ 1.70€ = 0.34€ E 2 = 0.02€ + (1 − 0.971) ⋅ 0.00€ + (1 − 0.989) ⋅ 25.00€ + (1 − 0.986) ⋅ 1.70€ = 0.32€ (8) E 3 = 1.10€ + (1 − 0.9935) ⋅ 0.00€ + (1 − 0.992) ⋅ 25.00€ + (1 − 0.9765) ⋅ 1.70€ = 1.34€ In the second scenario, when ordering a special component, where the pure fact of ordering could inform competitors about a new product, a violation of confidentiality would result in a high loss and cost 30,000.00 €, a violation of integrity would also cost 25.00 €, and again, non-availability 1.70 €. In this scenario, the calculation of the expected costs for each service would change to: E1 = 0.01€ + (1 − 0.977) ⋅ 30,000.00€ + (1 − 0.987) ⋅ 25.00€ + (1 − 0.998) ⋅ 1.70€ = 690.34€ E 2 = 0.02€ + (1 − 0.971) ⋅ 30,000.00€ + (1 − 0.989) ⋅ 25.00€ + (1 − 0.986) ⋅ 1.70€ = 870.32€ (9) E 3 = 1.10€ + (1 − 0.9935) ⋅ 30,000.00€ + (1 − 0.992) ⋅ 25.00€ + (1 − 0.9765) ⋅ 1.70€ = 196.34€ Thus, it would be advisable to send the order via IT Service3. Taking only the costs into consideration or fixing an IT service statically to an activity at the moment of business process design would inherently result in a non-optimal selection. 5. Discussion and Outlook In future SOA, where several alternative IT services are available for realizing activities of business processes, a method is required to select the most suitable one. Statically fixing a specific service to a specific business process activity at design time, or even selecting the IT service dynamically by 364 only taking costs into consideration, results in a non-optimal selection from a value-oriented view. Therefore, in this contribution, a method for taking riskiness of IT services into consideration has been developed and presented. Protection goals from IT security research, namely confidentiality, integrity and availability are proposed as “risk interface” between the IT service and the business process. A value-oriented selection of IT services requires two extensions: business process models have to be extended with economic values for not achieving protection goals and IT service descriptions have to be extended with measures for achieving these protection goals. For extending IT service descriptions, CIA measures have been introduced relying on CVSS data. One significant advantage of this approach is that the determination of CIA measures follows a methodic approach and can be automated. It allows the actual relevance of known vulnerabilities to be considered, e.g. if there is a known automated exploit of a vulnerability, this will be reflected in the respective CVSS values and, thus, immediately change the CIA measures of every corresponding IT service. However, there are also several limitations in our approach. One clear subject of further discussion is our interpretation of the CIA measures as probabilities. While a connection between CIA measures and probabilities of violations seem plausible, it remains subject to further research whether this assumption holds or not and how a company’s specific situation can be taken into consideration, e.g., through adjusted CVSS data. However, should a more precise method for calculating actual probabilities of meeting protection goals become available, it would be easy to extend our approach without having to change the whole risk-based selection of IT services. As mentioned above, additional protection goals such as authentication or accountability can easily be included whenever the required information about corresponding vulnerabilities is available. A further point of discussion is the application of the CIA measures for IT services provided by external suppliers. For IT services integrated from outside the company’s domain, it usually will not be possible to analyze vulnerabilities according to the service and the underlying IT infrastructure. However, the proposed CIA measures can also serve as external metrics that can be monitored without knowing internal metrics of the service itself and thus be integrated into SLA. For calculating the measures, the external service provider has to transform them into internal metrics and this can be achieved by applying the proposed method. In this case, the approach presented has to be extended to cope with the additional trust issues, e.g., by integrating control goals of compliance management – a challenging topic of further research. Literature [1] BHATT, G.D.; GROVER, V., Types of Information Technology Capabilities and Their Role in Competitive Advantage: An Empirical Study, in Journal of Management Information Systems. Vol. 22(2) (2005), pp. 253-277. [2] BISHOP, M., Computer Security: Art and Science, 2nd ed., Addison Wesley, Pearson Education, Boston, 2003. [3] BÖHME, R.; NOWEY, T., Economic Security Metrics, in Eusgeld, I. et al. (Eds.), Dependability Metrics, Lecture Notes in Computer Science 4909, Springer, Berlin 2008, pp. 176-187. [4] BRANDL, K., Exchange Web Services Windows Vista Gadget, 2008. http://msdn.microsoft.com/en-us/library/cc535019(EXCHG.80).aspx [2008-06-08]. [5] BURROWS, J.H., Guidelines for Security of Computer Application, Federal Information Processing Standards Publication 73, National Bureau of Standards, 1980. [6] CAMPBELL, S.; MOHUN, V., Mastering Enterprise SOA with SAP NetWeaver and mySAP ERP, John Wiley & Sons, Inc., New York, New York 2006. [7] CHESS, B.; McGRAW,G., Static Analysis for Security, in IEEE Security and Privacy. Vol. 2(6) (2004), pp. 76-79. [8] Common Vulnerabilities and Exposures (CVE), Mitre Organization, 2008. http://cve.mitre.org [2008-11-13]. 365 [9] Common Vulnerability Scoring System, FIRST - Forum of Incident Response and Security Teams, 2007. http://www.first.org/cvss [2008-04-22]. [10] CURBERA, F.; KHALAF, R.; MUKHI, N.; TAI, S.; WEERAWARANA, S., The Next Step in Web Services, in Communications of the ACM. Vol. 46(10) (2003), pp. 29-34. [11] DAVIS, R., Exploring Process Modelling: Benefits, Practices and Pitfalls, in Proceedings of the Australasian Process Days 2006, Sydney 2006. [12] GEER, D.; HOO, K.S.; JAQUITH, A., Information Security: Why the Future Belongs to the Quants, in IEEE Security and Privacy. Vol. 1(4) (2003), pp. 24-32. [13] GISOLFI, D., Web services architect, Part3: Is Web services the reincarnation of CORBA?, 2001. http://www.ibm.com/developerworks/webservices/library/ws-arc3 [2007-09-03]. [14] KARABULUT, Y.; KERSCHBAUM, F.; MASSACCI, F.; ROBINSON, P.; YAUTSIUKHIN, A., Security and Trust in IT Business Outsourcing: a Manifesto, in El. Notes in Theoretical Comp. Science. Vol.179 (2007), pp. 47-58. [15] MADISON, D., Process Mapping, Process Improvement, and Process Management: A Practical Guide to Enhancing Work and Information Flow, Paton Press, Chico, California 2005. [16] MILLS, S., The future of business – Aligning business and IT to create an enduring impact on industry, in IBM Thought Leadership Paper, 2007. ftp://ftp.software.ibm.com/software/soa/pdf/future_of_business.pdf [2007-11-30]. [17] MÜLLER, G.; PFITZMANN, A.; RANNENBERG, K., IT Security and Multilateral Security, in Müller, G. and Rannenberg, K. (Eds.) Multilateral Security in Communications, Addison-Wesley 1999, pp. 21-29. [18] RÖHRIG, S., Using Process Models to Analyse IT Security Requirements, Thesis, University of Zürich 2003. [19] SACHDEVA, N.; SCHMIDT, M.-T., Key WebSphere Service Registry and Repository scenarios in business process management, IBM White Paper, 2008. ftp://ftp.software.ibm.com/software/websphere/BPM_WSRR_WP_010308.pdf [2008-04-05]. [20] SACKMANN, S., A Reference Model for Process-oriented IT Risk Management, in W. Golden et al. (Eds.), 16th European Conference on Information Systems, Galway, Ireland 2008. [21] SACKMANN, S., Assessing the effects of IT changes on IT risk – A business process-oriented view, in M. Bichler et al. (Eds.): Multikonferenz Wirtschaftsinformatik MKWI’08, GITO, Berlin 2008, pp. 1137-1148. [22] SALVATI D.; DIERGARDT M., Towards a Scenario Based Risk Model for Information Systems, 2007. http://www.lsa.ethz.ch/people/phd/salvatid/DS-Scenario-Based-Risk-Model.pdf, [2008-01-12]. [23] SANCHEZ, R., Strategic Flexibility in Product Competition, in: Strategic Management Journal, Special Issue on Technological Transformation and the New Competitive Landscape. Vol. 16 (1995), pp. 135-159. [24] SCHNEIER, B., Attack Trees, in Dr. Dobb’s Journal. Vol. 24(12) (1999), pp. 21-29. [25] SCOTT, J.E., Mobility, Business Process Management, Software Sourcing, and Maturity Model Trends: Propositions for the IS Organization of the Future, in Information Systems Management. Vol. 24 (2007), pp. 139-145. [26] SHEYNER, O.; HAINES, J.; JHA, S.; LIPPMANN, R.; WING, J., Automated Generation and Analysis of Attack Graphs, in Proceedings of the 2002 IEEE Symposium on Security and Privacy (2002), pp. 273-284. [27] STYTZ, M., Who Are the Experts, and What Have They Done for Us Lately?, in IEEE Security and Privacy. Vol. 5(6) (2007), pp. 78-80. [28] TANENBAUM, A.S., Structured computer organization, 2nd ed., Prentice-Hall, Englewood Cliffs, New Jersey 1984. [29] WOHED, P.; VAN DER AALST, W.M.P.; DUMAS, M.; TER HOFSTEDE, A.H.M.; RUSSELL, N., On the Suitability of BPMN for Business Process Modelling, Business Process Management, in Dustdar, J.L. et al. (Eds.), BPM 2006, Lecture Notes in Computer Science 4102, Springer, Berlin (2006), pp. 161-176. [30] WOLF, G.; PFITZMANN, A., Empowering Users to Set Their Protection Goals, in Müller G.; Rannenberg, K. (Eds.) Multilateral Security in Communications. Addison-Wesley 1999, pp. 113-135. 366 INTEGRATION OF AN IT-RISK MANAGEMENT/RISK ASSESSMENT FRAMEWORK WITH OPERATIONAL PROCESSES Louis Marinos1, Lutz Kirchner2, Stefan Junginger2 Abstract This paper discusses the background and results of a research project which was conducted by ENISA (European Network and Information Security Agency) in cooperation with the BOC Information Technologies Consulting GmbH. The project was initiated with respect to the main task of ENISA: ensuring a high and effective level of network and information security within organisations in the European Union. As an important step towards this goal the research project aimed at increasing the level of integration between an enterprise-level IT Risk Management/Risk Assessment on the one hand, and selected operational business processes, on the other hand. The proposed integration is mainly established on the level of document flows between processes and activities respectively. In particular, operational processes which are closely related to IT were selected for integration. The introduced approach promises a better overall quality of IT Risk Management in an enterprise in general, as well as an improved management of risks in operational processes. 1. Motivation IT Risk Management is frequently implemented as an isolated process which shows little or no interaction with the various operational processes in an organisation (cf. [22]). This concerns valuegenerating business processes, e.g. procurement and sales, as well as support and management processes, like IT Service Management. As a consequence, risks which have to be dealt with on a daily basis during the execution of those processes are often not taken into account, neither in the course of planning nor of performing IT Risk Management. This causes a potentially negative impact on the overall quality of the operational business processes regarding aspects such as execution time, reliability and cost efficiency. At the bottom line, we assume that an isolated IT Risk Management is generally not as effective as one that is tighter integrated with operational processes and hence does not sufficiently contribute to the achievement of the organisations goals. Some approaches to IT Risk Management, like the Probabilistic Risk Analysis, address this issue by including the frequent gathering of information about operational risks from operational processes (cf. [4]). However, they primarily focus on risk assessment. Thus, their integration with 1 2 ENISA, 71001 Heraklion, Greece, http://www.enisa.europa.eu BOC Information Technologies Consulting GmbH, 10117 Berlin, Germany, http://www.boc-de.com 367 the operational processes is only limited and mostly constricted to quantitative data analysis. The most high-level approaches, i.e. especially IT Risk Management frameworks, usually do not cover the above addressed issue in sufficient depth (cf. paragraph 2.2). To overcome this desideratum, an adequate integration of IT Risk Management processes3 with the operational processes of an organisation – at least on the level of information flows - is recommended. Some of the necessary risk-related information may emerge from Risk Management activities, as they may be already implemented as an integral part of operational processes (e.g. in ITIL Service Continuity and Security Management). Additional information entities are generated “all over” the whole operational process. In consideration of the above discussed issue, the paper at hand aims at identifying interfaces between the IT Risk Management processes described in a Risk Management/Risk Assessment (RM/RA) framework (designed by ENISA, see paragraph 3.1) and selected operational process frameworks (namely ITIL, RUP, PRINCE2TM4 and CMMI, see paragraph 3.2). A pivotal design goal of the interfaces is being as concrete and detailed as it is possible when dealing with reference process frameworks rather than living processes. The focus of the integration is chiefly on the identification of corresponding information entities, the information flow between the processes, and roles. The information entities, which are to be exchanged between the IT Risk Management processes and the operational processes, are semantically mapped to each other for the specific context in which they are used. Thus, it is assured that the terminology of IT Risk Management and operational processes is compatible at any time. Main addressees of the research results are these individuals in an organisation which play a central role in the IT Risk Management implementation, integration and execution process (e.g. administrator, change manager, or CIO). Generally speaking, every person who is involved in planning and monitoring processes as well as being accountable for their outcome on any level of management may be benefiting from the outcome. The results of the research are published in the form of graphical process models created with the tool ADOit® 3.05. For easy accessibility and distribution, the ADOit®-models are being transformed in navigable HTML-models (cf. [7]). Complementing these models, a generic integration process model, which aims at supporting an organisation in the process of integrating IT Risk Management with the supported operational processes, as well as a role mapping table, is included. The paper is structured as follows: Section 2 gives a short introduction to IT Risk Management and presents a selection of IT Risk Management approaches. Section 3 describes the approach used for integration, additionally presenting the ENISA RM/RA Framework as well as two of the integrated operational process frameworks. Also the models, which document the integration results, are being presented in form of an exemplary excerpt. The paper closes with a conclusion in section 4 including a discussion of benefits a user may expect when adopting the models. 2. IT Risk Management This section gives a short overview of the terms risk and (IT) Risk Management (paragraph 2.1). It also introduces and briefly evaluates existing IT Risk Management frameworks (paragraphs 2.2 and 2.3). 3 In the context of Risk Management the associated processes, like e.g. risk assessment and risk control, are often denominated phases. 4 PRINCE2™ is a Trade Mark of the Office of Government Commerce. 5 ADOit® is a modelling tool for supporting Enterprise Architecture Management and IT Service Management. For further information see http://www.boc-group.com/ADOit. 368 2.1. Terminology A risk in general may be regarded as “the potential for realisation of unwanted, negative consequences of an event” (see [11]). Viewed from a decision oriented perspective a risk is the possibility of reaching a wrong decision and having to deal with the resulting negative consequences. Supplementing these definitions, a risk can also be interpreted as the possibility of failing to achieve a certain goal. In this context a positive derivation from a predefined goal specification may be seen as a chance (cf. [19], p. 22; [9], p. 1751). In general, Risk Management aims at making sure, that the existence of an organisation is ensured in the long run ([8], p. 12,). Risk Management is a recurrent process that deals with the analysis, planning, implementation, control and monitoring of implemented measurements. In contrast, Risk Assessment, that usually is seen as a part of Risk Management, is executed at discrete points of time (e.g. once a year, on demand) and provides a temporary view of assessed risks, while giving input to the Risk Management process (cf. [22], p. 6). IT Risk Management is a specialisation of Risk Management and focuses on the implementation of IT with respect to the overall organisational goals (cf. [3], p. 4). Risk Management principles and activities are applied to information technology specific processes. In this paper we assume that there usually exists a corporate-wide IT Risk Management in contrast to an IT Risk Management specifically applied to selected operational processes6. The possible integration of these two perspectives is also covered by this research in form of the definition of specific interfaces. 2.2. Introduction of Existing Approaches There exist numerous standards and good practices that provide guidance for IT Risk Management/Risk Assessment (cf. [22]). Standards like CobiT and ITIL chiefly aim at guiding activities in the area of IT Governance and IT Service Management, also hinting at the management of operational risks. In contrast, Risk Management frameworks focus on the definition of Risk Management processes and controls on a strategic or operational level respectively, but usually lack explicit relations to operational processes (see below). Complementing these approaches, there exists a plethora of sector- and enterprise-specific frameworks developed to fulfil special requirements of certain sectors and companies. This paper does not aim at providing a complete or ultimately well-defined categorisation and evaluation of IT Risk Management approaches. Instead, we pick out a small number of - in our opinion - representative approaches to highlight their general desiderata in terms of integration, according to the discussion in section 1. The approaches, which we briefly introduce in the subsequent paragraphs, provide some rather distinct perspectives on IT Risk Management. They were selected du to the fact, that they are well recognized, widely applied in practice, developed by representative organisations and institutes, and well documented in numerous publications or free-of-charge documentation. IT-Grundschutz of the German Bundesamtes für Sicherheit in der Informationstechnik provides a method for an organisation to establish an Information Security Management System (see [12] and [22], pp. 34 and pp. 93). It comprises both generic IT security recommendations for establishing an applicable IT security process and detailed technical recommendations to achieve the necessary IT security level for a specific domain. The key goal of IT-Grundschutz is to provide a framework for IT security management, offering information structured by typical building blocks (Bausteine), like e.g. infrastructure, IT-systems, and applications. In [13] potential synergies between a number 6 The gap between these two Risk Management approaches is also mentioned in [10], where a newly developed framework is announced for the end of the year, which claims to address this issue. 369 of ITIL processes and IT-Grundschutz are being discussed, but without offering concrete hints on how such an integration can be implemented. ISO/IEC IS 17799:2005 is an international ISO standard that provides information technology security techniques (see [17] and [22] p. 34 and pp. 86). It focuses on risk identification and risk treatment techniques, largely neglecting analysis and evaluation activities. It is mostly appropriate for initial threat identification. The documentation enlists various points that have to be taken into account to manage IT suitably. Interfaces to the organisational processes Human Resources Management, Change Management and Business Continuity Planning are also discussed. Octave v2.0 (and Octave-S v1.0 for Small and Medium Businesses) is a standard originating from Carnegie Mellon University (see [1] and [2] respectively, also [22] p. 36 and pp. 105). It provides a RM/RA method covering risk identification, analysis and evaluation, but only by provision of relevant criteria without further techniques. It includes however a complete framework to deal with the communication of risks. OCTAVE® (Operationally Critical Threat, Asset, and Vulnerability EvaluationSM) is a self-directed approach meaning that people from an organisation assume responsibility for setting the organization’s security strategy. OCTAVE-S is a variation of the approach tailored to the limited means and unique constraints typically found in small organisations (cf. [2], p. 3). 2.3. Summary The above as well as the plethora of other existing approaches all offer some mostly generic and therefore generally applicable guidance to IT Risk Management with a varying focus on specific Risk Management activities, and hence different specific strengths and weaknesses. In [21] the current situation is summarised as follows: “Each one of the standards has aspects that could benefit particular deployments; some include more detailed recommendations, while others prefer to use a more general approach”. Additionally, we may safely state, that the existing approaches do not deal with the challenge of the integration of an enterprise-wide IT Risk Management/Risk Assessment with operational processes in a satisfying manner. However, to truly leverage the synergies that may be created by combining IT Risk Management activities on different organisational levels, such an integration seems imperative. Based on this assumption, we make a proposal for an approach, which addresses this integration matter, in the subsequent paragraphs of this paper. 3. The Integration Approach The major working steps, which were executed consecutively in the course of this work, are discussed in detail in the following paragraphs. 3.1. Modelling of the ENISA RM/RA Framework The ENISA RM/RA Framework was depicted in the form of a graphical process model in ADOit®. The framework is basically a comprehensive summary of relevant concepts found in corresponding methods and literature about IT Risk Management. Due to this fact, it forms a highly adequate basis for the design and conceptualisation of an integration approach, such as it is described in this paper. In the following we give a short overview of the framework. Please refer to [22] for further details. Figure 1 shows a schematic of the framework. The covered processes (or phases) may be performed isolated or collectively. In case that all of the processes are performed, the thick arrows form a cycle which depicts a control flow through the Risk Management processes. The process 370 Definition of Scope and Framework is considered to be the starting point for this control flow. The process aims at the establishment of global parameters for the performance of Risk Management within an organisation. Subsequently, a process describing activities which deal with the identification, analysis and evaluation of risks is executed (Risk Assessment). This process is succeeded by Risk Treatment, which selects and implements measures to modify risk. Risk Acceptance aims at deciding which risks are accepted by the responsible management of the organisation. Monitor and Review describes an ongoing process for monitoring the success of the Risk Management implementation and delivering valuable input to any recursion of the (re)definition of the IT Risk Management. A supplementing Risk Communication process aims at exchanging information about risk to and from all stakeholders. In addition to the above processes, possible interfaces to operational processes are indicated, but not elaborated at this point. Complementing the framework, a set of information entities is identified by ENISA and incorporated in the model. These entities describe the exchange of information between the various Risk Management processes. Additionally, some roles are identified, which are typically involved in the execution of the Risk Management processes. These are Senior Management/Board of Directors, Risk Manager, Risk Owner, Internal Audit and Domain Expert (cf. [7]). Figure 1: The Risk Management Process in ADOit® 3.2. Modelling of the Operational Processes Due to limited resources, the number of operational process frameworks, which could be considered for integration, was restricted. Hence, the decision was made to include ITIL (see below), an application development process based on RUP (also see below), PRINCE2TM (Project Management in Controlled Environments 2, see [20]) and CMMI (Capability Maturity Model Integration, see [5]). The main reason for this choice is that these processes represent commonly used procedures and solutions for dealing with challenges in the field of IT Management, which 371 most companies have to meet, regardless of the business sector they are operating in. Moreover, they are to a certain extend accepted as de-facto standards. Furthermore, they are generally well documented and offer enough detail for integration with the ENISA RM/RA Framework, especially regarding the documentation of activities, roles and information entities. The following paragraphs give an overview of two of the operational process frameworks selected for integration. ITIL (Information Technology Infrastructure Library) was developed by the OGC (Office of Government Commerce) starting back in 1987. It aims at defining guidelines for the appropriate and efficient provision of IT services in organisations. The subsets of ITIL which are of interest for this report are Service Delivery, Service Support and Security Management (see [14], [16] and [15]). These processes are part of version 2 of ITIL and were selected for integration with Risk Management since they likely represent the most commonly used parts of ITIL at this point in time. Service Delivery mainly deals with planning and controlling aspects of IT service management. Service Support contains processes chiefly describing the support of customers in case of occurring incidents and problems. Security Management treats aspects like data security, risks and protection measures and therefore provides some parallels to Risk Management processes.7 The data that is gathered during the execution of ITIL service processes is highly valuable for assessing IT risks and helps to improve the corporate IT risk strategy. This applies especially for processes such as Incident Management and Problem Management, which deal with the consequences of IT risks. Moreover, an integration of IT Risk Management and ITIL allows for including risk treatment measures in the service process definitions – e.g. in IT Service Continuity processes - and thus improving these processes. Application Development Process: The application development process used for integration purposes is a generic heavy weight process, which is loosely based on the RUP (Rational Unified Process, see [18]). RUP is developed and published by Rational, which was acquired by IBM in 2003. The application development process should be used as a framework which can be tailored according to the requirements of the user. It comprises a number of process steps including analysis, design, implementation, testing and deployment. These most commonly used process steps are typical for almost every heavy weight software development process and hence were selected as a basis for creating the process models. The integration of an application development process with IT Risk Management ensures that on the one hand Risk Management receives valuable input from software development projects, thus contributing to the overall definition of IT Risk Management strategies. On the other hand, considering well defined risk treatment activity plans as an input to software development projects helps steering such projects and minimising the risk of failure. The selected operational processes are modelled in the same way as the RM/RA framework, thus beginning with control flows, followed by information entities, information flows and finally roles. 3.3. Modelling of the Interfaces between the Processes As a first step of integration, the activities of the operational processes, which provide interfaces to the Risk Management processes, are identified. Secondly, the information flow between the integrated activities or processes respectively is depicted. A third step is necessary when a data element is used as an incoming information flow to an activity. In this case a semantic data 7 ITIL V3 is available since early 2007 but has to ultimately supersede ITIL V2 yet, so it was not considered for inclusion. 372 mapping is conducted, which relates the incoming data element to the corresponding data elements of the receiving process. This is necessary since the data element terminology of the operational processes is not exactly matching these of the ENISA RM/RA Framework (see below). Figure 2 shows an excerpt of an IT Risk Management process with two exemplary interfaces to other processes, namely ITIL Service Support processes. The sole activity of the process, “A.14 Risk monitoring and reporting” has several roles attached, which are arranged according to their specific role relation to the activity. The role Internal Audit is responsible and accountable for the activity (hence arranged below the R- and A-symbols). The Domain Expert and Risk Owner are to be consulted (C) and the Risk Manager and Senior Management informed (I). This kind of role annotation is inspired by the RACI-role definitions, as they are for instance used in CobiT ([6]). In addition to the activities and roles the exchanged information entities (also denoted as data elements) and a data port are also included in the example. A data port contains a table which maps the incoming data elements to the data definitions of the receiving process. Figure 3 shows an exemplary data mapping. The left column displays the incoming data elements whereas the right column contains the mapping target, i.e. the data elements which are used in the receiving activity to store the incoming information. In this concrete example the incoming data elements are a subset of the documented ITIL-terminology (see [16]) and are mapped to the data elements defined for the ENISA RM/RA Framework. Note, that this is usually not a 1:1 relationship, but rather 1:n. Figure 2: The Monitor and Review Process with Interfaces to ITIL Service Support Figure 3: Mapping of Data Elements (excerpt from HTML model version) Figure 4 schematically illustrates the information flow from the ITIL process Incident Closure to the Monitor and Review process of the ENISA RM/RA Framework. From the ITIL-activity Inform User in the process Incident Closure a document Incident Status is handed over to the Risk Management activity A.14 Risk monitoring and review, where it is used to evaluate the success of the measures defined in IT Risk Management. If an increase of severe incidents in the recent past is discovered, e.g. by measuring these and other values with a set of Risk Management specific KPIs (Key Performance Indicators), Risk Management may be able to react in time and calibrate the concerned processes accordingly. To track the information flows throughout the complete set of models, model navigation is based on the easy-to-handle navigational features of ADOit® and its generated models in HTML-format. 373 ITIL Incident Management (Incident Closure) RM/RA Framework (Monitoring and Review) Figure 4: Example of Document Flow between two Processes Concluding the design step described in this paragraph, the mapping of roles was conducted for these processes which were provided with adequate role definitions. Analogous to the data definitions, the roles used in the context of Risk Management are not identical to those defined in the operational processes. Hence, they were semantically mapped to each other. Thus, in the integrated models the ITIL Change Manager e.g. is also acting as a Risk Owner and a local Risk Manager. A complete list of Risk Management roles and their mapping to roles of the covered operational processes can be found in [7]. 3.4. The Process Model for Result Application In order to successfully apply the above presented project deliverables in the course of a Risk Management integration process, a methodical approach like the one introduced in this paper is recommended. The selection of the activities, which may be executed as a part of the integration process, depends on the initial situation of an organisation prior to the implementation of the integration. Especially depending on the number of operational and Risk Management processes, which are already implemented in an organisation, some of the implementation activities may be omitted. In general, the following steps may be executed to establish an integration process: 1. 2. 3. 4. 5. Risk Management Implementation (if not already done in the past) Operational IT Process Implementation (if not already done in the past) Integration Planning and Initiation (resource assignment, process mapping etc.) Quality Assurance (e.g. review and improvement of process) Execution of Processes (support of staff, monitoring and constant improvement of process) A detailed description of the process steps and related activities can be found in [7]. 374 4. Conclusion The paper at hand illustrated the need for a thorough integration of an IT Risk Management approach and operational process, and proposed an approach for performing such an integration. The main contribution of the approach is the provision of concrete information flows between activities of IT Risk Management processes and operational process frameworks, which results in a detailed guide for establishing and harmonising both process types in an organisation. The overall expected benefit of the research results for a user, who applies the approach, can be summarised as following: • • The user receives guidelines for o Implementing Risk Management with a provided RM/RA framework o Implementing operational IT processes through provided reference models for IT service management, application development, project management and process maturity o Implementing an integration between Risk Management and common operational processes through provided interfaces, data flow definitions as well as data and role mappings o Planning and executing the whole integration process through the exemplary integration process model The resulting user benefits are o Guidance along the whole implementation and integration process o Better quality of IT Risk Management, especially with respect to the handling of operational risks o Better protection against disastrous incidents, which may cause severe damage to the organisation and result from operational risks o Improved line-up regarding compliance with frameworks which include regulations on Risk Management (e.g. SOX, Euro-SOX, Basel II, Solvency II) Potential future research could consider other possible dimensions of integration between Risk Management and operational business processes, like e.g. integration on the level of control flows, or technical interface specification for software tools. It has to be evaluated, if these kinds of integration deliver further value to the adopter. Furthermore, the success of the approach depends on the set of operational process frameworks, which are covered by documented integration scenarios. Our approach cannot be applied to an arbitrary operational process without first identifying and documenting the interfaces. To provide these interfaces to a larger number of operational process frameworks is subject to future work. 5. Literature [1] ALBERTS, C.J.; DOROFEE, A.J.: OCTAVESM Method Implementation Guide Version 2.0. Software Engineering Institute, Carnegie Mellon University, 2001 [2] ALBERTS, C.J; DOROFEE, A.J.; STEVENS, J.; WOODY, C.: OCTAVE®-S Implementation Guide. Version 1.0, Volume 1: Introduction to OCTAVE-S, Software Engineering Institute, Carnegie Mellon University, 2005 [3] BALDUIN, A. v.; JUNGINGER, M.; KRCMAR, H.: Risikomanagement von Informations- und Kommunikationstechnologien mit dem Value at Risk-Ansatz. Arbeitsbericht, Technische Universität München, 2002. [4] BEDFORD, T.; COOKE, R.: Probabilistic Risk Analysis. Cambridge University Press, Cambridge, 2001 375 [5] CMMI for Development. Version 1.2, Carnegie Mellon SEI, 2006 [6] CobiT 4.1: Framework, Control Objectives, Management Guidelines, Maturity Models. ITGI, 2007 [7] Demonstrators of RM/RA in Business Processes – Project Report. ENISA and BOC GmbH, 2007 [8] DIEDERICHS, M.: Risikomanagement und Risikocontrolling: Risikocontrolling – ein integrierter Bestandteil einer modernen Risikomanagement-Konzeption. Dissertation, Universität Dortmund, 2004. [9] FARNY, D.: Risk Management und Planung, In: Szyperski, N., Winand, U. (Hrsg.): Handwörterbuch der Planung, Stuttgart, S. 1749 – 1758, 1989 [10] FISCHER, U.: New Framework for Enterprise Risk Management in IT. In: Information Systems Control Journal, Volume 4, ISACA, 2008 [11] HEEMSTRA, F.J.; KUSTERS, R.J.: Dealing with risk: a practical approach. In: Journal of Information Technology, Volume 4, pp. 333.346, 1996 [12] IT-Grundschutz-Kataloge, 9. Ergänzungslieferung, Stand 2007. Bundesamt für Sicherheit in der Informationstechnik, 2007 [13] ITIL und Informationssicherheit: Möglichkeiten und Chancen des Zusammenwirkens von IT-Sicherheit und ITService-Management. Bundesamt für Sicherheit in der Informationstechnik, 2005 [14] ITIL Service Delivery. CD-ROM Version, Office of Government Commerce, Norwich, 2003 [15] ITIL Security Management. Office of Government Commerce, Norwich, 1999 [16] ITIL Service Support. CD-ROM Version, Office of Government Commerce, Norwich, 2003 [17] ISO/IEC 17799:2005: Information Technology - Security Techniques - Code of Practice for Information Security Management. International Standards Organisation, 2005 [18] KRUCHTEN, P.: The Rational Unified Process: An Introduction. Addison Wesley, Reading, 2000 [19] LOCHER, CH.; MEHLAU, J.I.; HACKENBERG, R.G.; WILD, O.: Risikomanagement in Finanzwirtschaft und Industrie – Eine Analyse des Management operationeller Risiken in deutschen Industrie- und Dienstleistungsunternehmen, ibi research an der Universität Regensburg gGmbH, 2004 [20] Managing successful projects with PRINCE2. TSO, London, 2005 [21] RAMIREZ, D.: Risk management standards: The bigger picture. In: Information Systems Control Journal, Volume 4, ISACA, 2008 [22] Risk Management: Implementation principles and Inventories for Risk Management/Risk Assessment methods and tools. Technical Department of ENISA, Section Risk Management, www.enisa.europa.eu/rmra, 2006 Acknowledgement The authors wish to express their gratitude to Aneta Nowobilska and David Heise who offered great support in assessing the literature and gave valuable input. 376 INTERNAL CONTROLS SCRIPTING LANGUAGE (ICSL): GRUNDZÜGE EINER INSTRUKTIONSSPRACHE FÜR INTERNE KONTROLLEN Tom Beiler1, Markus Böhm2 Kurzfassung Compliance von Unternehmen, also die Erfüllung gesetzlicher und regulatorischer Vorgaben, nimmt in ihrer Bedeutung stetig zu, und damit steigt auch die Bedeutung des Internen Kontrollsystems. Problematisch dabei ist, dass die Vorgaben für die Gestaltung des Internen Kontrollsystems Interpretationsspielräume zulassen, die zu unerwünschten Effizienzverlusten bei der Umsetzung der Vorgaben führen können. Dieser Beitrag stellt in diesem Zusammenhang die Grundzüge einer formalisierten Sprache vor, mit der sich interne Kontrollen präzise beschreiben lassen, so dass Angemessenheit und Wirksamkeit von Kontrollen bei der Gestaltung und Erweiterung des Internen Kontrollsystems besser beurteilt werden können. 1. Einführung Das Interne Kontrollsystem (IKS) ist ein zentrales Element in Unternehmen, um die Wirtschaftlichkeit und Wirksamkeit der Geschäftstätigkeit zu sichern [3]. Neben dem Schutz des Vermögens der Eigentümer oder Anteilseigner dient das IKS ebenfalls dazu, die Ordnungsmäßigkeit und Verlässlichkeit der Rechnungslegung sowie die Einhaltung von gesetzlichen und regulatorischen Vorgaben sicherzustellen. Diese Aufgabe der Einhaltung von Gesetzen und regulatorischen Vorgaben sowie der intern definierten Regelungen und Richtlinien führt in den Bereich der Compliance [9]. Compliance, also das Verhalten in Konformität mit bestimmten Regeln sowie der explizite Nachweis dieser Konformität gegenüber Dritten, hat in den letzten Jahren deutlich an Bedeutung gewonnen. Auch ist die Zahl der Vorgaben, die ein Unternehmen je nach Branche und Gesellschaftsform beachten muss, stark gestiegen, und eine Umkehrung dieser Tendenz ist nicht erkennbar. So gibt es neben dem bekannten Beispiel des Sarbanes-Oxley Act [11, 12] eine Vielzahl weiterer Vorgaben, die heutige Unternehmen gegebenenfalls erfüllen müssen. Eine recht vollständige Übersicht gibt [16], unter anderem zu: • Basel II • European 8th Directive • Gesetz zur Kontrolle und Transparenz im Unternehmensbereich (KonTraG) • Health Insurance Portability and Accountability Act (HIPAA) 1 2 Strat Hollis, Germany PricewaterhouseCoopers, Germany 377 • Payment Card Industry Data Security Standard (PCI-DSS) Weiterhin ist zu beobachten, dass zunehmend auch industriegetriebene Vorgaben für Unternehmen verbindlich werden, beispielsweise des PCI Data Security Standard [13]. Hier fordern nicht der Gesetzgeber oder eine Regulierungsbehörde, sondern namhafte Vertreter der Kreditkartenindustrie die Einhaltung, begründet über ihre Stellung im Markt. Zur Schaffung und Erhaltung der Compliance leistet das IKS eines Unternehmens einen entscheidenden Beitrag, und mit der Zunahme der Bedeutung von Compliance steigt auch die Bedeutung von interner Kontrolle, denn zusätzliche Compliance-Vorgaben stellen in der Regel auch neue und erweiterte Anforderungen an das IKS eines Unternehmens. Hierzu werden entsprechend der Zielsetzung der gegebenen Compliance-Aufgabe typischerweise bestimmte Kataloge mit Anforderungen an Unternehmensprozesse und deren Kontrolle assoziiert bzw. Ausschnitte von diesen als geeignet identifiziert. Diese Kataloge bestehen im Wesentlichen aus einer hierarchisch gegliederten Liste von Kontrollzielen (Control Objectives), zusammen mit Beschreibungen zugehöriger Kontrollmechanismen (Control Practices). Diese Mechanismen sollen, bei korrekter Umsetzung und Anwendung, sicherstellen, dass die Kontrollziele erreicht werden. Für den Bereich der Informationstechnologie eines Unternehmens sind [5, 6, 7, 8, 13, 14] solche Kataloge; in Abbildung 1 sind zur Veranschaulichung zwei Beispiele hieraus angegeben. Für Unternehmen besteht somit im Zuge der Compliance-Herstellung die Aufgabe, ihr IKS entsprechend dieser neuen Anforderungen zu erweitern. Das bedeutet, dass die Kontrollziele und Mechanismen im spezifischen Unternehmenskontext richtig interpretiert, angemessen gestaltet und damit wirksam implementiert werden müssen. In der Praxis ist diese Aufgabe allerdings keineswegs trivial. So liegen im Fall des Sarbanes-Oxley Act Untersuchungen vor, die den Schluss nahe legen, dass die Bewältigung dieser Aufgabe oftmals weder reibungslos vonstatten geht noch als effizient wahrgenommen wird. (Einige Zahlen hierzu sind in Abbildung 2 gegeben). Ein bedingender Faktor hier ist, dass die Anforderungskataloge gleichzeitig für viele Unternehmen Gültigkeit haben sollen und daher zwangsläufig eher allgemein und nur wenig spezifisch gehalten sind. Damit entstehen aber auch erhebliche Interpretationsspielräume bei der Implementierung innerhalb einer SOX Control 8: Ensure Systems Security, 8.8: Periodic Review of Access Rights. [8] Illustrative Control: A control process exists and is followed to periodically review and confirm access rights. Illustrative Test of Control: Inquire whether access controls for financial reporting systems and subsystems are reviewed by management on a periodic basis. Assess the adequacy of how exceptions are reexamined, and if the follow-up occurs in a timely manner. PCI-DSS Requirement 1: Install and Maintain a Firewall Configuration to Protect Cardholder Data. [13, 14] Requirement 1.2: Build a firewall configuration that denies all traffic from “un-trusted” networks and hosts, except for protocols necessary for the cardholder data environment. Recommended Audit Procedure: Select a sample of firewalls/routers 1) between the Internet and the DMZ and 2) between the DMZ and the internal network. The sample should include the choke router at the Internet, the DMZ router and firewall, the DMZ cardholder segment, the perimeter router, and the internal cardholder network segment. Examine firewall and router configurations to verify that inbound and outbound traffic is limited to only protocols that are necessary for the cardholder data environment. Abbildung 1: Beispiele aus zwei Anforderungskatalogen 378 konkreten Unternehmensrealität. Das wiederum birgt ein erhebliches Risiko für Defizite in interner Kontrolle von unter Umständen signifikantem Ausmaß, welche im ungünstigsten Fall erst im Rahmen einer Prüfung entdeckt werden. Die entsprechende Folge wäre dann die Feststellung der NonCompliance, also die Verfehlung des eigentlichen Ziels. Prüfungen und Kontrollen sind keineswegs eine neue Unternehmenspflicht; Unternehmen besitzen im Gegenteil bereits einen mehr oder weniger reichhaltigen Fundus an Kontrollen und Prüfprozeduren. Ebenso werden in Fällen größerer Compliance & Control Projekte externe Spezialisten und Dienstleister hinzugezogen, die ihr Know How in diesem Bereich einbringen. Dennoch, obwohl viele Unternehmen an dieser Stelle gleichartige Probleme erfahren, und das Wissen zu korrekten Implementierungen grundsätzlich vorhanden ist, hat sich bisher keine allgemein verfügbare Interpretationsmethodik über Unternehmensgrenzen hinweg etabliert. Die gemachten methodischen Erfahrungen werden nicht oder nur kaum mitgeteilt und somit auch nicht synergetisch im Sinne einer erweiterten Best Practice der Interpretation aufbereitet. Dabei hätte eine solche Methodik Vorteile: Im Zuge einer konkreten Implementierung könnten Alternativen für präzisierte Kontrollen von anerkannter Qualität verglichen und in Bausatzart ausgewählt werden oder mindestens als Startpunkt einer Anpassung dienen; eine Prüfung des Designs und eventuell auch der operationalen Effektivität würde vereinfacht. Aus Unternehmenssicht wäre es wünschenswert, wenn sich mit einem solchen Hilfsmittel die Effizienz bei Entwicklung und Betrieb des IKS verbessern ließe. Eine Voraussetzung zu einer Interpretationsmethodik ist die Möglichkeit der formalen Beschreibung von Kontrollen und Kontrollprozeduren. Von einem solchen Formalismus ist zu fordern, dass zum einen die durchzuführenden Kontrollaktivitäten möglichst genau beschrieben werden können. Dabei muss eine möglichst genaue Orientierung an den Vorgaben unterstützt werden, um das Risiko einer fehlerhaften Interpretation und Durchführung zu minimieren. Zum anderen soll ein solcher Formalismus ausreichend Flexibilität bieten, so dass Kontrollen in jedem Schritt der Präzisierung, beginnend bei allgemeinen Anforderungen und dann mit der entsprechend erforderlichen Expertise, durchführbar sind. So wird der Prozess der Interpretation der Vorgaben im Unternehmenskontext Der Sarbanes-Oxley Act ist eine Compliance-Vorgabe, die für an U.S.-Börsen gelistete Unternehmen zu erfüllen ist. Motiviert unter anderem durch den Enron und WorldCom-Skandal werden CFO und CEO verpflichtet, die Korrektheit der Finanzberichterstattung zu bestätigen, indem sie die korrekte Funktion der internen Kontrollen persönlich zertifizieren. Kann eine korrekte Funktion aufgrund signifikanter Schwachstellen in den internen Kontrollen nicht festgestellt, und somit eine Fehlerhaftigkeit der Finanzberichterstattung nicht ausgeschlossen werden, so ist diese Tatsache mit den Finanzberichten der Börsenöffentlichkeit und Investoren gegenüber zu bekunden. Die Organisation 'Financial Executives International' (FEI) hat bei einer Umfrage für das Berichtsjahr 2006 festgehalten [4], dass nur 22% von befragten Repräsentanten betroffener Unternehmen den Nutzen als die Kosten überwiegend einschätzten, während 78% befanden, die Kosten würden den Nutzen übersteigen. Andererseits jedoch zeigt ein Report von Lord & Benoit [10], dass Unternehmen, die im Hinblick auf ihre Finanzberichterstattung keine Schwachstellen des Internen Kontrollsystems offenlegen mussten, dafür auch vom Aktienmarkt „deutlich belohnt“ wurden. Diese Beobachtungen lassen zusammengenommen den Schluss zu, dass die unternehmensinterne Realität der Sarbanes-Oxley Compliance negativer wahrgenommen wird als das tatsächliche Ergebnis im Aktienwert vermuten ließe. Ein möglicher Faktor für dieses Missverhältnis zwischen Wahrnehmung und Ergebnis sind die Reibungsverluste durch die Maßnahmen zur Schaffung und Erhaltung der Compliance. Der FEI-Bericht gibt auch die Größenordnung der Aufwendungen für Sarbanes-Oxley Compliance für das Berichtsjahr 2006 an. Dem Bericht zufolge werden durchschnittlich ca. 18.000 Personenstunden angegeben, und die Kosten, für eine Stichprobe von 200 Unternehmen, belaufen sich im Durchschnitt auf 2,9 Mio. Dollar. Bei diesen Zahlen ist zu beachten, dass sie sich auf SarbanesOxley Vorgaben als ganzes beziehen. Rein auf das IKS bezogen liegen solche Untersuchungen leider nicht vor. Abbildung 2: Einige Daten zur Praxis des Sarbanes-Oxley Act 379 nicht durch unangemessen strikte Formerfordernisse behindert, sondern stattdessen sogar unterstützt. Mit der Instruktionssprache für Interne Kontrollen ICSL stellen wir in diesem Beitrag einen solchen Formalismus vor. 1.1. Diskussion verwandter Ansätze und alternativer Kandidaten Am Markt für Unternehmensdienstleistungen und -produkte werden Unternehmen mit ComplianceAufgaben durchaus unterstützt. Es gibt, nicht zuletzt motiviert durch den Sarbanes-Oxley Act, eine Reihe von Produkten, die Unternehmen bei der Bewältigung von Compliance-Aufgaben im Bereich der Dokumentation unterstützen können [2]. Diese Produkte sind oftmals jedoch nur wenig mehr als eine Adaption von Dokumenten-Management; Dokumenteninhalte mit den eigentlichen Beschreibungen von Kontrollen werden hingegen meist nicht mehr innerhalb des Produkts detailliert abgebildet. Eine Übersicht hierzu liefert [17]. Zur Lösung der eingangs geschilderten Probleme sind diese Produkte in dieser Form daher nur bedingt geeignet, und aus diesen Produkten sind bisher auch keine Ansätze vergleichbar mit ICSL hervorgegangen, oder sind zumindest unzugänglich geblieben. Eine weitere Klasse von Werkzeugen verfolgt den Zweck, mittels Programmskripten automatisch Daten aus relevanten Systemen zu extrahieren, zu konsolidieren, und zu analysieren. Ein bekannter Vertreter ist hier die 'Audit Command Language' ACL, von den Alternativen ist Picalo ein freies Werkzeug im Sinne von Open Source [1, 15]. Diese Werkzeuge werden für Kontrollen eingesetzt: routinemäßig im Rahmen von IKS sowie ad hoc, und auch zur Aufdeckung und forensischen Analyse von Betrug in Unternehmen. Des Weiteren gibt es spezialisierte Werkzeuge zur automatischen Überwachung von Hard- und Software-Komponenten, insbesondere um die Konfiguration dieser Komponenten zu erfassen, mit den Soll-Einstellungen zu vergleichen und gegebenenfalls eine Korrektur einzuleiten. Beispiele hierfür sind die Einstellungen von IT-Komponenten zur minimalen Passwortqualität, und die automatische Überprüfung von Firewall-Einstellungen. Diese Werkzeuge sind jedoch nah an IT-Komponenten orientiert, und daher kaum allgemein verwendbar. Davon abgesehen ist die Zielsetzung dieser Werkzeuge eine Automatisierung, und so können in beiden Fällen diese Sprachen nicht die oberste Ebene der persönlichen, manuellen Kontrolle durch die tatsächlich Verantwortlichen innerhalb des Unternehmens vollständig ersetzen, denn sonst würde das Verantwortlichkeitsprinzip verletzt. Auch wenn eine Automatisierung, wo sie möglich ist, grundsätzlich Vorteile und Unterstützung bietet, sollte dennoch Spielraum für fließende Übergänge von manuellen zu automatisch angereicherten Kontrollen vorhanden sein. Dies ist vor allem dort ein Vorteil, wo eine situative Reaktion auf eine variierende Kontrollumgebung und menschliches Urteilsvermögen gefragt sind. In derartigen Situationen erweisen sich automatische Lösungen als zu statisch und unflexibel. Zudem kann der Betrieb solcher Werkzeuge für Unternehmen einen hohen Kostenfaktor darstellen. Als Konsequenz sei festgehalten, dass eine Instruktionssprache ICSL mit automatischen Kontrollen sinnvoll kooperieren können muss. 2. Die Grundzüge von ICSL ICSL basiert auf der Beobachtung, dass die einschlägigen Kontrollanforderungskataloge einer Normsprache bereits recht nahe sind. Es treten häufig dieselben Handlungsanweisungen auf, angewendet auf verschiedene Objekte. Folgerichtig besteht ICSL im Kern aus einer Formalisierung der typischen, verwendeten Handlungsanweisungen wie zum Beispiel 'verify', 'identify' und 'obtain' mit einer Festlegung der zugehörigen Objekte. Eine exemplarische Auswahl von Grundinstruktionen ist in Abbildung 3 dargestellt. Hinzu kommen Elemente zur Strukturierung von Prozeduren, nament380 lich zur Gruppierung und Blockbildung, zur bedingten Ausführung, und zur Iteration. Darüber hinaus enthält ICSL die Möglichkeit, untergeordnete, externe und automatische Skripte zu initiieren und auszuwerten. Abbildung 4 zeigt die Strukturierungselemente von ICSL. Ein weiteres Element von ICSL ist die Behandlung von Instruktionsobjekten als Variablen. Im Gegensatz zu Kontrollbeschreibungen in gebrauchssprachlicher Form werden in ICSL die verwendeten Objekte, insbesondere die in die Kontrolle involvierten Rollen und Personen und die erhobenen und gesammelten Nachweise (beispielsweise Listen, Spreadsheets, Dokumente, E-Mails, digitalisierte Kopien) eineindeutig benannt und referenziert. In der ICSL-Notation werden die Schlüsselwörter einer Instruktion in Fettschrift und literale Satzteile sowie Variablen in normaler Schriftstärke geschrieben. Variablen haben zudem zur Kennzeichnung ein Dollarzeichen '$' vorangestellt, und wenn sie mit Inhalten belegt sind, werden sie, ähnlich einem Hyperlink, unterstrichen. Es gibt keinen formalen Unterschied zwischen skalaren Daten und Datenlisten. Im Zweifelsfall ist ein Skalar eine Liste mit nur einem Element. Falls zur Verdeutlichung gewünscht, können Variablen, die Listen repräsentieren, in eckige Klammern und weiterhin mit führendem Dollarzeichen zur Variablenkennzeichnung gesetzt werden. Variablennamen, die aus mehreren Wörtern bestehen, können zur Vermeidung von Missverständnissen in runde Klammern gesetzt werden. Ein ICSL-Skript muss stets mindestens eine 'Conclude'-Instruktion enthalten. Damit wird festgeschrieben, dass die Durchführung einer Kontrolle immer ein Ergebnis 'Pass' oder 'Fail' haben muss, das heißt, die Feststellung eines Sachverhaltes muss auch zu einer Bewertung führen. Eine Ausnahme ist eine alleinstehende 'Verify'-Instruktion: Dies ist der Anfang einer Refinement-Kette, und wir gehen davon aus, dass ein 'Conclude' in diesem Fall implizit enthalten ist. Verify that $Item(s) is/are $Prädikat. Verify ist eine abstrakte Instruktion die feststellt, ob Prädikat für Item bzw. für alle Items wahr ist. Ohne Refinement lässt sie es frei, wie diese Prüfung angemessen durchzuführen ist. Verify bildet sinnvoller weise den Anfang einer Refinement-Kette. Result. Optional kann mit Comparator eine Vergleichsmethode angegeben werden. Validate $Item with $Check-Liste. 'Validate' überprüft Item mithilfe der gegebenen Prüfliste Check-Liste. Das Ergebnis dieser Validierung steht im weiteren Ablauf in Check-Liste zur Verfügung. Obtain $Item from $Rolle/Person. Conclude to Pass if Bedingung, or to Fail otherwise. 'Obtain' ist eine Eingabe-Instruktion: Es soll eine Sache oder Information, beschrieben mit Item, von einer Person Person, oder von einer Person in der angegebenen Rolle Rolle erhalten werden. Falls eine Rolle spezifiziert war, steht im weiteren Verlauf der Name der tatsächlichen Person in dieser Variablen. 'Conclude' stellt das Kontrollergebnis 'Pass' oder 'Fail' fest. Hierzu werden die vorherigen Tests in Bedingung ausgewertet und mit einem Referenz- oder Schwellwert verglichen. Identify Element(e) in $Item(s) where $Prädikat to $Ergebnis. 'Identify' liefert diejenigen Elemente aus Item(s), für die das Prädikat Prädikat erfüllt ist. Das Ergebnis bzw. die Liste mit den identifizierten Elementen befindet sich anschließend in Ergebnis. Compare $Item-1 and $Item-2 [on $Komparator] to $Ergebnis. 'Compare' vergleicht zwei Dinge Item-1 und Item-2 und beschreibt als Ergebnis die festgestellten Unterschiede in Assess $Sachverhalt [with $Methode] to $Assessment. 'Assess' liefert eine Einschätzung des gegebenen Sachverhalts. Meist ist dies das Kontrollresultat, oder ein Zwischenergebnis. Das Ergebnis steht in Assessment. Optional kann mit Methode eine Methode, Vorlage oder andere Arbeitshilfe angegeben werden. Report Ergebnis with $Vorlage. 'Report' beschreibt das Kontrollergebnis, und möglicherweise weitere Details z.B. statistischer Art, in Form und mithilfe von Vorlage. Der Report ist anschließend in Vorlage enthalten. Abbildung 3: Eine Auswahl von ICSL Grundinstruktionen 381 Block / Gruppierung: {Instruktionsfolge} Folgen von Instruktionen werden in einem Block gruppiert, um sie gemeinsam als eine strukturelle Einheit handhaben zu können. Dies wird von den weiteren Strukturelementen von ICSL benötigt. Eine solche zusammengehörige Instruktionssequenz wird in geschweifte Klammern gesetzt. Es ist außerdem guter Stil, die Instruktionen einzurücken. Eine einzelne Instruktion bildet bereits eine Folge; dann können die geschweiften Klammern weggelassen werden. Bedingte Ausführung: if Bedingung then Block else Block. ICSL enthält die typische Bedingte Ausführung in der typischen Schreibweise if-then-else. Iteration: For each $Item in $Liste [do] Block. in jeder Iteration steht in Block das aktuell iterierte Listenelement Item zur Verfügung. Die Liste wird Element für Element 'ausgerollt', und der Block auf jedem Element einmal durchgeführt. Refinement: Instruktion by Block. Der Refinement Operator 'By' kann am Ende bzw. anderer geeigneter Stelle einer Grundinstruktion stehen. Der zugehörige Block beschreibt dann genauer, wie die Grundinstruktion auszuführen ist. Die häufigste Grundinstruktion, die so präzisiert wird, ist die 'Verify'-Instruktion. Aufruf Externer Skripte: Perform Skript. Mit der Instruktion 'Perform' werden andere Skripte zur Ausführung gebracht. Solche Skripte können wiederum ICSL-Skripte sein, oder auch beliebige andere Skripte, wie z.B. automatische Skripte in ACL. Mit diesem Operator wird über die Liste Liste iteriert, und Abbildung 4: Die Strukturierungselemente von ICSL Die Reihenfolge eines Skripts kann aufgebrochen werden, wenn zum Beispiel erst während der testenden Phase ein weiterer Eingabebedarf auftritt und ein weiteres bzw. wiederholtes 'Obtain' oder 'Observe' erforderlich wird. Ein solcher Fall tritt ein, wenn erst im Testverlauf auffällt, dass die Eingaben nicht vollständig waren. Ebenso die Reihenfolge betreffend ist die Verfahrensweise, wenn das Skript nicht sinnvoll weitergeführt werden kann, weil etwa auf ein 'Obtain' keine verwertbare Eingabe trotz angemessenen Aufwands erfolgt ist. Dann liegt es im Ermessen des Ausführenden, an geeigneter Stelle wieder aufzusetzen. In der Regel ist diese Stelle dann das 'Conclude' mit einem Ergebnis 'Fail' inklusive geeigneter Begründung. Weitere Konstrukte von ICSL sind das Refinement zur Unterstützung verschiedener Grade an Präzisierung sowie die Historisierung von tatsächlich durchgeführten Kontrollen. Beide Konstrukte werden im Folgenden detaillierter dargestellt. 2.1. Refinement ICSL enthält ein Konstrukt zum Refinement. Mit Refinement wird in der Spezifikationstheorie die Konkretisierung einer allgemeineren Spezifikation in eine näher am Zielsystem orientierte Spezifikation bezeichnet. Aus den Freiheitsgraden, die eine höhere Spezifikation bietet, werden konkrete Möglichkeiten im Hinblick auf das Zielsystem gewählt und festgelegt. ICSL enthält dieses Konstrukt, um den Vorgang der Interpretation von einer allgemeinen Kontrollvorgabe, bei der vergleichsweise viel Expertenwissen zur Durchführung benötigt wird, zu einer im Unternehmenskontext konkreteren Anpassung mit weniger Freiheitsgraden, und damit mit weniger Fehlermöglichkeiten zu begleiten. Wir demonstrieren den Refinement-Vorgang anhand von SOX-Cobit 8.8 aus Abbildung 1. Die gegebene Kontrolle lässt sich umschreiben in eine Verify-Instruktion: A control process exists and is followed to periodically review and confirm access rights. ▼ Transformation nach ICSL Verify that all access rights are periodically confirmed. Bei der Transformation nach ICSL ist der Term 'a control process exists and is followed' wegen Redundanz weggefallen. Des weiteren fließt bei der Transformation das Expertenwissen mit ein, 382 dass es hier insbesondere darum geht, dass für alle Benutzer relevanter Systeme die Zugriffsrechte regelmäßig bestätigt werden sollen, um Zugriffsrechte, für die keine Autorisierung (mehr) vorliegt, zu entdecken und in der Folge zu bereinigen. Es ist hier übrigens auch zu sehen, dass bereits ein verhältnismäßig einfacher und klarer Satz nicht unbedingt einfach in der Interpretation ist. Unter Berücksichtigung dieser Hinweise zur Interpretation kann jetzt ein Refinement stattfinden: Verify that all access rights are periodically confirmed. ▼ Refinement innerhalb ICSL Verify that all access rights are periodically confirmed by { Obtain $List of all users from Admin. Sample $List of all users to $[Sample]. For each $User in $[Sample] do { Obtain $Current Access Rights from Access Admin. Obtain $Last Confirmation from Access Admin. Identify any Access Right(s) in $Current Access Rights where that Access Right has: • neither been confirmed in $Last Confirmation, • nor has been granted since the last confirmation, • nor is currently in the process of being revoked, appending to $Exceptions. }. Conclude on Pass if $Exceptions is empty, and on Fail otherwise. }. Die im ‚illustrative Test of Control‘ zu SOX-Control 8.8 geforderte Einschätzung der Angemessenheit der Zeitlichkeiten des Aufräumens kann als weitere Kontrolle modelliert werden. Diese Kontrolle würde die Vorgaben für die Zeitlichkeiten erheben, und diese dann mit einer qualifizierten Einschätzung vergleichen. Ob diese zeitlichen Vorgaben auch tatsächlich eingehalten werden, ist hingegen in obiger Beispielkontrolle noch zu integrieren. Ebenso ist die Sample-Methode genauer zu spezifizieren. An dieser Stelle wurde darauf verzichtet. Auch wird implizit vorausgesetzt, dass nur die Zugriffsrechte für ein gegebenes System untersucht werden. Für mehr als ein einzelnes relevantes System wäre diese Kontrolle von einem übergeordneten Skript aus durchzuführen, dass über die Liste der Systeme iteriert, oder eine Liste der relevanten Systeme müsste direkt im Skript berücksichtigt werden. Grundsätzlich ist beim Refinement zu beachten, dass die Präzisierung entlang einer Abstraktionsachse verläuft, und nicht etwa entlang einer Vervollständigung. Der Refinement-Operator kann nur dazu dienen, vorhandene Teile einer Kontrolle genauer zu fassen, nicht aber, um nicht vorhandene Teile einzufügen. Das Einfügen neuer Teile verändert die Kontrollsemantik, und muss dann auch dementsprechend behandelt werden. 2.2. Historisierung ICSL bietet zudem eine Historisierung der Ausführung von Kontrollen. Die Historisierung von Kontrolläufen ist hilfreich zur Dokumentation und zur Erbringung des Nachweises, dass Kontrollen tatsächlich und ordnungsgemäß durchgeführt worden sind. Zur Historisierung werden die Instruktionen des Skripts im Zuge der Ausführung in eine historische Version überführt, bei der sprachlich vom Imperativ in eine Vergangenheitsform übergegangen wird, und die geforderten Variablen dann mit Inhalten belegt sind. Mit diesem Mechanismus geht aus der Kontrollausführung das Ausführungsprotokoll bzw. der Kontrollreport hervor. Abbildung 5 zeigt exemplarisch eine erfolgreiche Ausführung (Ergebnis: Pass), und einen fehlgeschlagenen Lauf (Ergebnis: Fail), der Handlungsbe383 Der erfolgreiche Fall: Die Kontrolle hat keine Abweichungen identifiziert. The following Control has been performed on Feb. 28th, 2008 with the Result Pass: It has successfully been verified that all access rights are periodically confirmed by { $List of all users has been obtained from Admin A. Smith. $List of all users has been sampled to $[Sample]. For each $User in $[Sample], the following has been performed: { $the Current Access Rights have been obtained from Access Admin B.Miller. $the Last Confirmation has been obtained from Access Admin B.Miller. Any Access Right in $the Current Access Rights have been identified where that Access Right has: — neither been confirmed in $Last Confirmation, — nor has been granted since the last confirmation, — nor is currently in the process of being revoked, appending to $Exceptions. }. It has been concluded on Pass, as no exceptions, and hence no violations of the re-confirmation process have been identified. Der fehlgeschlagene Fall: Die Kontrolle hat Abweichungen aufgedeckt. The following Control has been performed on Jan. 31th, 2008 with the Result Fail: It has not been possible to verify that all access rights are periodically confirmed, for the following reason: 2 users have been detected where the access rights have never been confirmed over the three years of the existence of the accounts. This exceeds the expected re-confirmation period of 3 months. The preliminary reason given by Admin A. Smith is that one user is a technical user, and hence is being excluded from the re-confirmation process, while the second user somehow has left the company and forgotten to be deleted from the user base. See $Exceptions for detailed information on the user ids identified. Abbildung 5: Historische Formen der Beispielkontrolle darf für zwei Benutzerkonten identifiziert hat. Im Beispiel nicht mit aufgeführt ist, dass im fehlgeschlagenen Fall der historische Kontrollauf wie im erfolgreichen Fall zu Dokumentationszwecken ebenfalls enthalten ist. 2.3. Weitere Elemente von ICSL ICSL enthält weitere Ansätze, die über die beschriebenen Grundzüge hinaus gehen: Formulare. Manuelle Kontrollen und ihre Ausführungen werden in der Praxis oftmals durch Formulare und Checklisten abgebildet, und ICSL-Skripte haben durchaus eine Äquivalenz mit Formularen, allerdings sind ICSL-Skripte in der Darstellung kompakter. Bei einer Umsetzung von ICSLSkripten mithilfe interaktiver Webseiten in einem Intranet werden die Übergänge zu WebFormularen fließend. Ebenso ist aber für ICSL ein Formulargenerator für klassische Papierformulare denkbar. Rollen und Qualifikationen. Ein ICSL-Script Instruktionen kann verschiedener Schwierigkeitsgrade enthalten. Diesem Umstand kann Rechnung getragen werden, indem die Instruktionen eines Skriptes mit Rollen annotiert werden, zum Beispiel 'Business Analyst', 'Senior Control Analyst', 'Controller', 'Compliance Manager' (Namen können je nach Umgebung variieren). Hierdurch können die zur Verfügung stehenden Kontrollakteure bezüglich der Qualifikation und Funktion effizienter eingesetzt werden, und es kann der Umstand, dass eine wenig präzise Kontrollbeschreibung eine größere Expertise in der Durchführung erfordert, deutlicher widergespiegelt werden. 384 Delegation. Die Ausführung einzelner Instruktionen in einem Skript kann delegiert werden. Dies ist sinnvoll zur Arbeitsteilung, im speziellen für Iterationen über Listen, die zum Beispiel mehrere Systeme, Ansprechpartner, Abteilungen oder Orte betreffen. Dieser Umstand ist mit der historischen Form einer Kontrolle aufzuzeichnen. Es ist jedoch immer der oder die ursprüngliche Kontrollausführende verantwortlich für die Korrektheit der Durchführung. Management-System. Mit zunehmender Größe des IKS ist es sinnvoll, die Kontrollen mit einem passenden Management-System zu verwalten. In Bezug auf ICSL sind für ein solches System folgende Möglichkeiten zur Einbettung wünschenswert: • Der Entwicklungs- und Reifungsprozess von Kontrollen sollte durch einen angemessenen Lebenszyklus und eine Versionierung unterstützt werden. • Das System sollte die zeitliche Planung der Kontrolldurchführungen und weitere inhaltliche Abhängigkeiten abbilden und umsetzen können. • Das System sollte die historischen Kontrollen zusammen mit den erbrachten Nachweisen archivieren. So kann der korrekte Betrieb des IKS schnell und übersichtlich dargestellt werden. • Das System sollte die Ergebnisse der Kontrollen konsolidieren und für ein ManagementReporting aufbereiten. • Das System sollte eine Wiederverwendung von Nachweisen und Materialien ermöglichen, wenn dies in bezug auf eine Kontrolle möglich und sinnvoll ist. Dies minimiert Störungen durch wiederholtes Beschaffen von Daten bei sonst an den Kontrollen unbeteiligten Datenlieferanten, und minimiert damit Störungen der eigentlichen Geschäftstätigkeiten und Unternehmensabläufe. 3. Abschließende Bemerkungen In diesem Beitrag wurden die Grundzüge der Skriptsprache Internal Controls Scripting Language ICSL zur Formalisierung Interner Kontrollen vorgestellt. ICSL behält dabei die gewohnten Elemente typischer Kontrollbeschreibungen bei und belegt diese mit einer definierten Semantik. ICSL bietet Variablen zur eindeutigen Bezeichnung und durchgängigen Verwendung der Instruktionsobjekte, sowie die für Skriptsprachen typischen Strukturierungselemente, inklusive des Aufrufs externer Skripte. Letztere Möglichkeit erlaubt die Integration anderer, bereits vorhandener Kontrollen. Diese können auch automatisch sein. Der Prozess der Überführung allgemeiner Kontrollanforderungen in die konkrete Realität eines gegebenen Unternehmens wird in seinen Schritten der Anpassung und Verfeinerung durch den Refinement-Operator unterstützt. Dabei erlaubt ICSL eine Balance zwischen der Genauigkeit durch eine hohe Formalisierung einerseits, und den Vorteilen menschlichen Einschätzungs- und Reaktionsvermögens in der Kontrollausführung auch in Anwesenheit von Präzisionsdefiziten in der Spezifikation sowie bei geänderter Kontrollumgebung andererseits. Durch eine Formalisierung interner Kontrollen schafft ICSL eine Voraussetzung zur genaueren Formulierung und Vergleichbarkeit von Kontrollen auch außerhalb eines einzelnen, sehr spezifischen Unternehmenskontextes. Dies kann die Basis sein für einen allgemein verfügbaren Fundus konkreter, interner Kontrollen, zusammen mit der zugehörigen Interpretationsmethodik. Dies ist eine Vorbedingungen für eine Verbesserung der Hilfsmittel zur Entwicklung und Erweiterung eines IKS im Kontext von Compliance. 385 4. Literaturangaben [1] ACL SERVICES LTD., WWW.ACL.COM. [2] AMBERG, M., MOSSANEN, K.., Vorteile und Herausforderungen IT-gestützter Compliance-Erfüllung, Gemeinschaftliche Studie der Universität Erlangen, Lehrstuhl für Wirtschaftinformatik III, und Novell, Inc., 2007. [3] COMMITTEE OF THE SPONSORING ORGANIZATIONS OF THE TREADWAY COMMISSION (COSO) (Eds.), Internal Control – Integrated Framework, 1992. [4] FINANCIAL EXECUTIVES INTERNATIONAL (FEI), FEI Survey: Management Drives Sarbanes-Oxley Compliance Costs Down by 23%, But Auditor Fees Virtually Unchanged, Florham Park, NJ, May 2007. [5] INTERNATIONAL STANDARDIZATION ORGANIZATION, ISO/IEC 27001: Information technology – Security techniques – Information security management systems – Requirements, 2005. [6] INTERNATIONAL STANDARDIZATION ORGANIZATION, ISO/IEC 27002: Information technology – Security techniques – Code of practice for information security management, 2005. [7] IT GOVERNANCE INSTITUTE, CobiT (Control Objectives for Information and Related Technology), Revision 4.1, Rolling Meadows, IL, May 2007. [8] IT GOVERNANCE INSTITUTE, IT Control Objectives for Sarbanes-Oxley: The Role of IT in the Design and Implementation of Internal Control Over Financial Reporting, 2nd Edition, Rolling Meadows, IL, September 2006. [9] KLOTZ, M., DORN, D.-W., IT-Compliance – Begriff, Umfang und relevante Regelwerke, in: Praxis der Wirtschaftsinformatik, HMD Heft 263, dpunkt.verlag, Oktober 2008. [10] LORD, R., The Lord & Benoit Report: Do the Benefits exceed the Costs?, Lord & Benoit, LLC., Worcester, MA, May 2008. [11] MARCHETTI, A.-M., Beyond Sarbanes Oxley Compliance. Effective Enterprise Risk Management, John Wiley & Sons, New Jersey, 2005. [12] MENZIES, C., REIMER, B., et al., Sarbanes-Oxley Act. Professionelles Management Interner Kontrollen, Schäffer Poeschel Verlag Stuttgart, und PriceWaterhouseCoopers, 2004. [13] PCI SECURITY STANDARDS COUNCIL, Payment Card Industry (PCI) Data Security Standard, Version 1.1, Released September 2006. [14] PCI SECURITY STANDARDS COUNCIL, Payment Card Industry (PCI) Data Security Standard: Security Audit Procedures, Version 1.1, Released September 2006. [15] PICALO.ORG, Picalo Data Analysis and Fraud Detection Toolkit: Picalo Manual, Version 3, published on www.picalo.org, 2007. [16] TARANTINO, A., Manager’s Guide to Compliance. Best Practices and Case Studies, John Wiley & Sons, New Jersey, 2006. [17] TRIPATHY, R., Sarbanes-Oxley Tools: Why Do They Fail?, Published on InsideSarbanesOxley.com, 2006. 386 WERTSCHÖPFUNGSNETZWERKE Wertschöpfungsnetzwerke sind seit längerem bekannt, verdanken ihre zunehmende Bedeutung jedoch erst dem Einsatz ausgereifter Informations- und Kommunikationstechnologien. Deren Nutzung kann Transaktionskosten senken und trägt so zu einer wirtschaftlich sinnvollen Zusammenarbeit im Netzwerk bei. Wertschöpfungsnetzwerke gehen weit über die Koordination betrieblicher Aktivitäten hinaus. Der Track widmet sich Strategien, Methoden und Konzepten, die der Gestaltung, dem Aufbau und Betrieb von Wertschöpfungsnetzwerken dienen. Hierbei ergeben sich neue Herausforderungen und Konsequenzen für die Organisation, die Steuerung und das Management der IT. Diese sollen ebenfalls behandelt werden. Neben wissenschaftlichen Beiträgen sind auch fundierte und innovative Beispiele aus der Praxis willkommen. Leitungsgremium: Helmut Krcmar, Technische Universität München Susanne Leist, Universität Regensburg (Federführende) Maria Madlberger, Wirtschaftsuniversität Wien Programmkomitee: Rainer Alt, Universität Leipzig Norbert Gronau, Universität Potsdam Werner Jammernegg, Wirtschaftsuniversität Wien Reinhard Jung, Universität Duisburg-Essen Christian Reichmayr, DAB bank AG Thomas Schnieders, Otto Versand Dorian Selz, local.ch ag Robert Winter, Universität St. Gallen Gregor Zellner, Universität Regensburg IT-GESTÜTZTE WERTSCHÖPFUNGSPARTNERSCHAFTEN ZUR INTEGRATION VON PRODUKTION UND DIENSTLEISTUNG IM MASCHINENUND ANLAGENBAU Philipp Walter1, Nadine Blinn2, Michael Schlicker3, Oliver Thomas1 Kurzfassung Im Maschinen- und Anlagenbau sind Wertschöpfungspartnerschaften ein etabliertes Mittel zur Kostenreduktion und Effizienzsteigerung, indem eine Aufgabenteilung zwischen Herstellern technischer Produkte und herstellerunabhängigen Kundendienstorganisationen stattfindet. Durch Unterbrechungen des Informationsflusses an Unternehmensgrenzen und die dadurch bewirkte Trennung von Produktion und Dienstleistung existieren in Hinblick auf die Gesamtwertschöpfung jedoch umfangreiche Steigerungspotentiale. Im vorliegenden Beitrag werden daher zunächst die Wertschöpfungsketten im Maschinen- und Anlagenbau analysiert und Verbesserungspotentiale identifiziert. Zu ihrer Realisierung wird ein strategischer Lösungsansatz entwickelt, der Produktion und Dienstleistung stärker verknüpft. Er wird in einem Fachkonzept konkretisiert, das an einem Anwendungsbeispiel aus der betrieblichen Praxis expliziert und qualitativ und empirisch evaluiert wird. 1. Einleitung Wertschöpfungspartnerschaften sind im Maschinen- und Anlagenbau ein etabliertes Werkzeug zur Kostenreduktion und Effizienzsteigerung [1, 2] – insbesondere in den Bereichen der Branche, in denen für in Serie gefertigte Produkte über einen großen geografischen Bereich hinweg Kundendienstleistungen erbracht werden. Hier findet traditionell eine Aufgabenteilung zwischen Herstellern und herstellerunabhängigen Kundendienstorganisationen statt, die auch als Wiederverkäufer und als einziger Kontakt zum Kunden agieren. Damit gehen allerdings bis heute Brüche im Informationsfluss entlang der Wertschöpfungskette einher, wodurch Produkt und produktbegleitende Dienstleistungen separiert und dadurch große Wertschöpfungspotentiale unrealisiert bleiben. Ziel dieses Beitrags ist die Konzeption eines Lösungsansatzes zur IT-gestützten Integration von Produktion und produktbegleitenden Dienstleistungen in Wertschöpfungspartnerschaften im Maschinen- und Anlagenbau. Dazu werden nach einer Zusammenfassung des Stands der Forschung 1 Institut für Wirtschaftsinformatik im DFKI, Universität des Saarlandes, Stuhlsatzenhausweg 3, 66123 Saarbrücken. Lehrstuhl für Wirtschaftsinformatik, Universität Hamburg, Von-Melle-Park 9, 20146 Hamburg. 3 INTERACTIVE Software Solutions GmbH, Hochstraße 63, 66115 Saarbrücken. 2 389 (Teil 2) zunächst der Ist-Zustand der Wertschöpfungsketten im Maschinen- und Anlagenbau erfasst, Schwachstellen bzw. Verbesserungspotentiale identifiziert, ein Soll-Zustand in Form eines strategischen Lösungsansatzes abgeleitet und ein Fachkonzept zur IT-Unterstützung dieser Lösung vorgestellt (Teil 3). An einem Anwendungsbeispiel aus der Sanitär-, Heizungs- und Klimatechnikbranche wird die Lösung konkretisiert (Teil 4) und empirisch evaluiert (Teil 5). Der Beitrag schließt mit einem Resümee und einem Ausblick (Teil 6). 2. Stand der Forschung Leistungsbündel aus Sach- und Dienstleistungen werden sowohl aus wissenschaftlicher als auch aus praktischer Sicht zunehmend integriert betrachtet. Verschiedene Wissenschaftsdisziplinen fokussieren dabei jeweils unterschiedliche Aspekte und verwenden dementsprechend eigene Terminologien. Die Wirtschaftsinformatik vereint durch ihren interdisziplinären Charakter die unterschiedlichen Sichten, so dass hier auch eine umfassende Diskussion über die Terminologie geführt wird [3, 4, 5]. Für den vorliegenden Beitrag ist ausschlaggebend, dass Leistungsbündel oftmals nicht von einzelnen Unternehmen erstellt werden, sondern arbeitsteilig von mehreren Partnern in einem Wertschöpfungsnetzwerk. Solche Wertschöpfungsnetzwerke sind bereits Gegenstand umfangreicher wissenschaftlicher Betrachtungen, insbesondere unter dem Aspekt der Koordination [6]. Um die einzelnen Sach- und Dienstleistungskomponenten der Wertschöpfungspartner zu integrieren, ist eine enge Abstimmung mit einem strukturierten Informationsfluss erforderlich. Als Wertschöpfungspartnerschaft wird eine partnerschaftliche Kooperation zwischen Unternehmen bezeichnet, die in aufeinanderfolgenden Stufen der Wertschöpfungskette tätig sind. Somit handelt sich zunächst um eine vertikale Kooperation, die im Allgemeinen für eine längerfristige Dauer angelegt ist [7]. Die Kooperationspartner sind dabei nicht institutionell verknüpft, sondern handeln selbständig und entscheiden sich eigenständig für die Partnerschaft. Die Wertschöpfungspartnerschaft geht über eine vertikale Kooperation insofern hinaus, als dass die Koordination der überbetrieblichen Leistungserstellung von allen Partnern gemeinsam geplant und organisiert wird. Auf diese Weise entsteht nach außen hin eine in sich geschlossene Wettbewerbseinheit [8]. Wertschöpfungspartnerschaften im Maschinen- und Anlagenbau wurden bisher überwiegend unter dem Aspekt des Supply Chain Managements (SCM) in ihrer Ausprägung als Lieferantenkooperation zwischen Herstellern und ihren Zulieferern untersucht [9]. Durch Strategien wie Efficient Consumer Response (ECR) und Maßnahmen wie CRP (Continuous Replenishment), JMI (Jointly Managed Inventory) oder CPFR (Collaborative Planning, Forecasting and Replenishment) sollen vor allem Kosteneinsparungen bei der Herstellung erzielt und an die Kunden weitergegeben werden, um sich so über den Preis von ihren Wettbewerbern zu differenzieren [10]. Ansätze zu Wertschöpfungspartnerschaften auf Absatzseite dagegen erheben den Kunden oft selbst zum Wertschöpfungspartner, z. B. im Rahmen der Kundenintegration und Kundenmitwirkung insbesondere bei der Dienstleistungserstellung [11, 12]. Die Fähigkeit des Kunden, die an ihn ausgelagerten Teilleistungen zu erbringen, kann im Fall technischer Kundendienstleistungen jedoch nicht vorausgesetzt werden: er benötigt eine Gesamtlösung aus technischer Sachleistung sowie produktbegleitenden Kundendienstleistungen. Die wiederverkaufende Kundendienstorganisation bestimmt dabei den Integrationsgrad dieses Leistungsbündels [13]. Vor diesem Hintergrund entstehen derzeit vielfältige neue Geschäftsmodelle, um die Integration von Produktion und Kundendienstleistungen mit Fokus auf den Endkunden voranzutreiben: während klassische Modelle beispielsweise vorsehen, dass der Endkunde Produkt und Kundendienst getrennt erwirbt, wird mit Betreibermodellen und Service Level Agreements (SLA) dem Investitionsrisiko durch ungeplante Störungen und Ausfälle begegnet [14, 15]. 390 Im Hinblick auf die Wertschöpfungskette lassen sich jedoch alle Ansätze in zwei Hauptrichtungen („Make-or-Buy“) klassifizieren: bei einem einstufigen Vertriebsweg betreiben die Hersteller selbst eigene regional begrenzte oder weltweite Servicenetze und gestalten entsprechende Serviceprodukte und -dienstleistungen selbst; bei einem mehrstufigen Vertriebsweg kooperieren Hersteller ohne bundes- oder gar weltweites Servicenetz mit produktunabhängigen Kundendiensten, die gegenüber dem Kunden gleichzeitig als Technischer Kundendienst, Berater und Wiederverkäufer agieren [16]. 3. Integrierte Wertschöpfungspartnerschaften im Maschinen- und Anlagenbau 3.1. Status Quo von Wertschöpfungspartnerschaften in mehrstufigen Vertriebswegen Zur verständlichen Darstellung komplexer Zusammenhänge, wie sie in einer Wertschöpfungspartnerschaft im mehrstufigen Vertriebsweg in Erscheinung treten, hat sich die Systemtheorie als geeignet erwiesen. Abbildung 1 zeigt daher die Wertschöpfungspartner als Systeme und ihre Organisationseinheiten als Subsysteme [17]. Die Umwelt in Form des Marktes bildet dabei den Kontext (gesättigter Markt, steigender Wettbewerbsdruck). Beziehungen zwischen den Systemen und Subsystemen werden im Folgenden auf Informations-, Finanz- und Leistungsflüsse beschränkt. Abbildung 1: Wertschöpfungspartnerschaft im mehrstufigen Vertriebsweg Am Ende der Wertschöpfungskette steht der Endkunde, der ein technisches Produkt inklusive Beratung, Installation und kontinuierlicher Instandhaltung von einer Kundendienstorganisation bezieht. Damit diese die produktbegleitenden Dienstleistungen adäquat ausführen kann, stellt ihr der Hersteller Serviceinformationen zur Verfügung, die in Papierform oder als CD vorliegen können, aber auch Informationsdienstleistungen wie eine Telefonhotline umfassen können. Die interne Wertschöpfungskette des Herstellers entspricht dem Modell von PORTER bzw. der Erweiterung nach TÖPFER [16, 18]. Abgebildet sind nur für die vorliegende Betrachtung relevanten Bestandteile: sie werden als Prozessmodule innerhalb des Systems symbolisiert, das für ihre Ausführung zuständig ist. Neben den primären Funktionen Entwicklung, Produktion und Vertrieb sind dies vor allen der Werkskundendienst und die Qualitätssicherung. Der Werkskundendienst führt Servicearbeiten beim Endkunden in der Regel nur im Gewährleistungsfall oder ausnahmsweise bei Anforderung durch den Endkunden oder einen Wertschöpfungspartner aus, da die produktunabhängigen Kundendienste im Allgemeinen durch die Abdeckung kleinerer Regionen bei größeren Stückzahlen betreuter Produkte günstiger sind. Im Unterschied zu den produktunabhängigen Kundendiensten erlaubt die institutionelle Zugehörigkeit des Werkskundendienstes zum Hersteller 391 jedoch, Beschreibungen von Störungen und Servicearbeiten direkt an die Qualitätssicherung zu übergeben. Diese Informationen aus der Nutzungsphase der Produkte sind von zentraler Bedeutung zur Verbesserung der Produkt- und Dienstleistungsqualität des Herstellers – gängige Methoden zu ihrer Verwertung sind z. B. Total Quality Management (TQM), das Konzept der European Foundation for Quality Management (EFQM), die Fehler-Möglichkeits- und Einflussanalyse (FMEA) oder das Quality Function Deployment (QFD) [19, 20]. 3.2. Herausforderung: mangelnde Integration von Produzenten und Kundendiensten In den gesättigten Märkten des Maschinen- und Anlagenbaus sind signifikante Wettbewerbsvorteile alleine über Preise nicht mehr zu realisieren [21]. Zur Differenzierung von Wettbewerbern konzentrieren sich die Unternehmen daher verstärkt auf den vom Endkunden wahrgenommenen Wert der Gesamtlösung, den sie vor allem durch produktbegleitende Kundendienstleistungen steigern wollen [22, 23]. Die Wertschöpfungspartnerschaft zwischen Herstellern einerseits und eigenständigen, produktunabhängigen Kundendiensten andererseits ermöglicht es dabei, flächendeckenden Kundendienst zu günstigen Preisen anzubieten. Der Informationsaustausch stellt dabei beide Seiten jedoch vor unterschiedliche Herausforderungen. Aus Sicht der Kundendienste ist die Versorgung mit Serviceinformationen durch die hohe Komplexität der Produkte im Maschinen- und Anlagenbau ein kritischer Erfolgsfaktor. Wird z. B. nur ein einzelner Maschinentyp, der durchschnittlich zehn Jahre genutzt wird, in 20 Konfigurationen hergestellt und alle zwei Jahre vom Hersteller überarbeitet, kann ein Kundendienst schon auf 100 unterschiedliche Varianten einer solchen Maschine treffen. Die Multiplikation mit der Gesamtzahl der Maschinentypen aller Hersteller veranschaulicht, dass aktuelle Ansätze diesem hohen Informationsbedarf nicht gerecht werden: vom Hersteller zur Verfügung gestellte Serviceinformationen sind, (unabhängig ob papierbasiert oder elektronisch) statisch und nicht-interaktiv und müssen regelmäßig mit hohem Aufwand aktualisiert werden. Die Frage nach dem richtigen Informationsmix im richtigen Verdichtungsgrad zum richtigen Zeitpunkt bleibt damit unbeantwortet. Aus Sicht der Hersteller ist der dort ebenfalls hohe Aufwand für Erstellung, Verteilung und Pflege der Serviceinformationen bei allen Partnern ebenso unbefriedigend [24]. Schwerer wiegt jedoch, dass die Hersteller ihre Endkunden fast ausschließlich über die produktunabhängigen Kundendienste erreichen, wodurch sie keinen regelmäßigen Zugriff auf Störungs-, Wartungs-, Reparatur- und Betriebsdaten ihrer Produkte haben. Zur Qualitätssicherung können sie sich daher nur auf das Feedback des eigenen Werkskundendiensts stützen (vgl. Abbildung 1), das aber deutlich weniger als 10 % der verfügbaren Informationen abdeckt (vgl. Abschnitt 5). Die beiden zentralen Informationsbestände im Hinblick auf die Integration von Produktion und Kundendienstleistung sind somit einerseits Serviceinformationen des Herstellers, die die Kundendienste benötigen, und andererseits die Informationen aus der Nutzungsphase der Produkte, die für den Hersteller wertvoll sind. Die Autonomie der Akteure behindert dabei den freien Austausch dieser Informationen: während die Informationsflüsse im Falle des einstufigen Vertriebswegs keine Unternehmensgrenzen überschreiten, müssen im Falle des mehrstufigen Vertriebswegs oder bei Mischformen beider Fälle Informationen zwischen den eigenständigen Wertschöpfungspartnern ausgetauscht werden, um die Lösungskomponenten „technisches Produkt“ und „produktbegleitender Kundendienst“ bei der gemeinsamen Leistungserstellung zu integrieren. Qualitätsfehler aufgrund von Informationsdefiziten, seien es Sach- oder Dienstleistungsmängel, schaden allen Wertschöpfungspartnern, nicht nur dem direkten Verursacher [25]. Die Herausforderung besteht somit darin, den Informationsaustausch zwischen den Wertschöpfungspartnern unter Berücksichtigung 392 der ökonomischen Rahmenbedingungen zu steigern und so die Wertschöpfungspartnerschaft durch eine intensivere interne Vernetzung zu stärken. 3.3. Strategischer Lösungsansatz Um eine Lösung der Problemstellung zu erreichen, müssen die Wertschöpfungspartner in das Netzwerk „investieren“, im vorliegenden Fall durch das Anbieten und Tauschen von Informationen mit ihren Partnern [26]. Zur effizienten Realisierung dieses Informationsaustauschs ist eine ITUnterstützung unabdingbar – sie wird im folgenden Teil 3.4 genauer dargestellt. Bezahlung Bezahlung Hersteller Entwicklung Produktion Vertrieb Produktentwicklung Produktion Absatz Dokumentation Technische Produkte Endkunden Installation / Instandhaltung Serviceinformationen Kundendienst Feedbackauswertung Kundenindividuelle Lösung Zusammenstellung Weiterverkauf Technischer Kundendienst Werkskundendienst Qualitätssicherung Produktunabhängige Kundendienste Technischer Kundendienst im Gewährleistungsfall Informationsaustausch Globale Koordination Koordination und Beratung Interne Koordination des Informationsaustauschs Informationsaufbereitung Globaler Portalbetrieb Lokaler Portalbetrieb Koordination und Beratung Feedback Bezahlung Abbildung 2: Erweiterung der Wertschöpfungspartnerschaft um einen Informationsaustausch zwischen Herstellern und den eigenständigen Kundendiensten In der Wertschöpfungskette schlägt sich der institutionalisierte, IT-gestützte Informationsaustausch in der in Abbildung 2 gezeigten Erweiterung nieder. Detaillierte Produkt- und Serviceinformationen werden von den Herstellern in der Regel als hochsensibel und geheimhaltungsbedürftig betrachtet, daher ist eine zentrale, öffentliche Datenhaltung nicht praktikabel. Stattdessen sind interne Organisationseinheiten der Hersteller für den Informationsaustausch zuständig: sie bereiten die Informationen auf, speichern sie und koordinieren ihren Austausch über ein eigenes Portal. Auf diese Weise verlassen sensible Informationen das jeweilige Unternehmen nicht unkontrolliert, sondern werden explizit für ihre automatisierte Distribution sowohl an den eigenen Werkskundendienst als auch an die produktunabhängigen Kundendienste ausgewählt und vorbereitet. Dieser Schritt umfasst ihre Aggregation und ihre Konvertierung in miteinander verknüpften Produkt- und Prozessmodelle. Diese sind sowohl geeignet, den Kundendienst mobil vor Ort beim Endkunden interaktiv und bedarfsgenau zu unterstützen, als auch die Grundlage für ein strukturiertes Feedback über Störungen und vorgenommene Kundendienstarbeiten an den Hersteller. Im Gegensatz zur Wertschöpfungskette aus Abbildung 1 können so (a) die Kundendienstmitarbeiter mobil, bedarfsgerecht, und effizient mit exakten Serviceinformationen direkt vom Hersteller versorgt werden, und (b) die bisher brachliegenden Informationen über Serviceeinsätze der produktunabhängigen Kundendienste in den Weiterentwicklungszyklus beim Hersteller einfließen. 393 Zur zentralen Koordination der verteilten Herstellerportale und des Netzwerks ist eine unabhängige Organisation vorgesehen, die auch Beratungsleistungen für die Hersteller in Zusammenhang mit Aufbau und Betrieb ihrer Portale erbringt. Ferner konsolidiert sie die verteilten Portale, indem sie als zentraler Anlaufpunkt für die produktunabhängigen Kundendienste fungiert und sie transparent zu den jeweils benötigten Informationen weiterleitet. 3.4. Architektur des Informationssystems Abbildung 3 zeigt die verteilte IT-Architektur zur Umsetzung des Lösungsansatzes. Den Kunden- diensten, d. h. sowohl den Werks- als auch den produktunabhängigen Kundendiensten, steht als Schnittstelle zum System ein mobiles, internetbasiertes Anwendungssystem zur Verfügung. Bei Bedarf nach Serviceinformationen nutzt der Kundendiensttechniker dieses System, um seine Anfrage zunächst an den globalen Portalserver zu richten, der den Techniker zum zuständigen Herstellerportal transparent weiter verbindet. Auf diese Weise haben die Kundendienste eine zentrale Anlaufstelle und müssen Änderungen am verfügbaren Informationsbestand nicht selbst mitverfolgen, so dass die Clientsoftware entsprechend schlank ausfallen kann. Der Portalserver dient dabei nicht als Broker im Sinne serviceorientierter Architekturen (SOA), sondern ermöglicht in erster Linie die nach Hersteller separierte Speicherung sensibler Produkt-, Service- und Feedbackdaten. Abbildung 3: IT-Architektur zur Unterstützung des Informationsaustauschs in der Wertschöpfungspartnerschaft Beim Hersteller wird die Anfrage in einem Dialog zwischen anfragendem Techniker und dem eigenen Portal bearbeitet, das dazu über eine zentrale Datenbank mit allen Serviceinformationen verfügt, die der Hersteller anbietet. Der Techniker wird schrittweise durch den Serviceprozess geführt und in jedem Prozessschritt mit den für ihn relevanten Herstellerinformationen versorgt. Durch die Benutzung des mobilen Systems werden Daten der bearbeiteten Anlage und die an ihr durchgeführten Maßnahmen automatisch erfasst, als strukturiertes Feedback vom Portal entgegengenommen und in einer separaten Feedback-Datenbank gespeichert. Dieser Informationsaustausch stellt die Realisierung der oben skizzierte Win-Win-Situation zwischen Herstellern und Kundendiensten dar: der Kundendienst erhält wertvolle Informationen, die seine Arbeit erleichtern, beschleunigen und 394 qualitativ verbessern, wofür er wiederum dem Hersteller wertvolle Informationen aus der Nutzungsphase seiner Produkte überlässt. Vom zufriedenen Endkunden profitieren beide Partner. Zwischen der Serviceinformations- und der Feedback-Datenbank besteht ein herstellerspezifischer Kreislauf, der exemplarisch durch die Schritte der herstellerinternen Wertschöpfungskette symbolisiert ist. So werden von der Organisationseinheit, die das Portal und den Informationsaustausch betreut, die Feedbackdaten aufbereitet und der Qualitätssicherung übergeben, die sie wiederum in die Weiterentwicklung und Dokumentation einfließen lässt. Dabei werden nicht nur die technischen Produkte, sondern auch die Serviceinformationen selbst weiterentwickelt. Aus Datensicht existieren zwei zentrale Informationstypen (vgl. 3.2). Serviceinformationen können aus Text, Bildern, Arbeitsbeschreibungen, etc. bestehen, die um Prozessmodelle von Serviceprozessen angeordnet und einzelnen Prozessschritten zugeordnet werden können. Feedbackinformationen umfassen neben Anlagendaten auch die durchgeführten Arbeitsschritte, die jeweils erzielten Zwischenergebnisse sowie ggf. Bewertungen der Qualität der Serviceinformationen selbst. 4. Anwendungsszenario Ein idealtypischer Vertreter des Maschinen- und Anlagenbaus mit mehrstufigem Vertriebsweg ist die Sanitär-, Heizungs- und Klimatechnikbranche (SHK). Die Komplexität der hier hergestellten Produkte reicht von einfachen mechanischen Geräten, z. B. Druckausgleichsbehältern, bis hin zu komplexen mechatronischen Einzelgeräten, die zu großen Wärme- und Elektrizitätserzeugungsanlagen kombiniert werden. Der Kundendienst der SHK-Branche wird überwiegend von rund 50.000 kleinen und mittelständischen Fachhandwerksbetrieben erbracht, die aus den in Serie hergestellten technischen SHK-Produkten kundenindividuelle Lösungen entwickeln, zusammenstellen, installieren und instand halten. Sie bilden so bundesweit ein dichtes SHK-Versorgungsnetz für Produkte aller Hersteller und haben 2007 einen Jahresumsatz von 24,4 Mrd. Euro erwirtschaftet [27]. Im Verbundforschungsprojekt PIPE wird das dargestellte Wertschöpfungsnetzwerk prototypisch umgesetzt [28]. Die hier entwickelten Methoden und Softwarekomponenten unterstützen die effiziente Erhebung von Serviceinformationen („Informationsaufbereitung“ in Abbildung 2), ihre Modellierung und Bereitstellung, die mobile Kundendienstunterstützung sowie das strukturierte Feedback. Ein in PIPE prototypisch abgebildeter Serviceprozess entfaltet sich um das Fehlerbild einer Fehlermeldung bei der Selbstdiagnose eines Gasheizgeräts: mit der Fehleranzeige „Fehler F.0“ weist die Software des Geräts darauf hin, dass eine Störung vorliegt, und unterbindet aus Sicherheitsgründen den weiteren Betrieb. Die zur Diagnose und Behebung dieser Störung durchzuführenden Arbeitsschritte wurden als Serviceprozess modelliert. Ein Kundendiensttechniker kann daher mithilfe des beschriebenen mobilen Anwendungssystems vor Ort am Gerät Hersteller, Typ, Seriennummer und Fehlerbild erfassen und wird direkt vom Herstellerportal mit Informationen zu dem Fehler („Unterbrechung Vorlauf-NTC-Temperaturfühler“) und den Schritten zu seiner Behebung versorgt. Bei der schrittweise ausgeführten Fehlerdiagnose stellt sich dann heraus, dass der Temperaturfühler selbst einwandfrei ist und eine Beschädigung des Verbindungskabels zwischen Leiterplatte und Fühler die Fehlermeldung auslöst. Durch die direkte Verfügbarkeit der Ersatzteildaten kann der Techniker das Kabel schnell beschaffen und ersetzen – teilt der Kunde bei Auftragserteilung den Fehlercode direkt mit, kann der Techniker das Kabel sogar vorausschauend mitführen. Die bei der schrittweisen Ausführung des Serviceprozesses gesammelten Daten (Geräteidentifikation, Typ, Baujahr, defektes Bauteil, durchgeführte Arbeitsschritte) werden anonymisiert über das Herstellerportal in die Feedbackdatenbank übernommen. Die Qualitätssicherung des Herstellers kann die Informationen nutzen, um z. B. bei Häufung einer bestimmten Störung die Gerätekonstruktion anzupassen, oder bei Verzögerungen in der Abarbeitung von Serviceprozessen deren Ab395 lauf zu straffen oder ihre Beschreibung zu verbessern. Änderungen an Produkten, deren Dokumentation oder den Serviceinformationen werden direkt von der mit der Koordination des Informationsaustauschs betrauten Organisationseinheit aufbereitet und zeitnah durch eine Aktualisierung der Serviceinformationsdatenbank den Wertschöpfungspartnern zur Verfügung gestellt. 5. Evaluation des Anwendungsszenarios Der vorgestellte Lösungsansatz wird sowohl unter dem Aspekt des Nutzenzuwachses, der von ihm generiert wird, als auch unter dem Aspekt der praktischen Relevanz evaluiert. Den Nutzen des Systems veranschaulicht Abbildung 4 anhand von vier qualitativen Merkmalen, die sich durch die Intensivierung des Informationsaustauschs in der Wertschöpfungspartnerschaft verändern. Der Grad des Informationsaustauschs (rechte Achse) zwischen den Partnern betrifft Menge und Umfang der Serviceinformationen für die Kundendienstorganisationen einerseits sowie der Informationen über durchgeführte Servicearbeiten für den Hersteller andererseits. Je umfangreicher der Austausch, umso stärker wirken sich die Informationen auf die Produkt- und Servicequalität aus (obere Achse). Die Kurve des Qualitätszuwachses flacht dabei mit steigender Informationsmenge ab, da nach und nach eine Informationssättigung eintritt. Der Aufwand, der den Wertschöpfungspartnern zur Errichtung und Aufrechterhaltung der Kooperation entsteht (untere Achse), hängt ebenfalls unterproportional vom Grad des Informationsaustauschs ab: die Schaffung der organisatorischen und informationstechnischen Voraussetzungen zum Informationsaustausch bleiben zunächst unabhängig von der Nutzungsintensität fix. Der Umfang der Nutzung dieser Infrastruktur trägt kaum zum Aufwand bei, so dass der Unterschied zwischen einer einfachen und einer intensiven Partnerschaft aufwandsseitig nur marginal ist. Abbildung 4: Implikationen der Intensivierung der Wertschöpfungspartnerschaft Auf der linken Achse wird der Nutzen der verschiedenen Wertschöpfungspartnerschaften für den Endkunden von den bisher genannten qualitativen Größen abgeleitet. Er hängt direkt von der Produkt- und Servicequalität ab, daher wird im linken oberen Quadrant eine lineare Beziehung symbolisiert. So ergibt sich im unteren linken Quadrant eine Kosten-Nutzen-Abschätzung, die verdeutlicht, dass der Kundennutzen überproportional zum Aufwand wächst, wobei zu beachten ist, dass hier (a) eine qualitative Abschätzung vorliegt, d. h. die Effekte zwar zu erwarten, aber noch nicht quantifizierbar sind, und (b) der Nutzen nicht unbegrenzt wachsen kann, da auch der Intensivierung 396 des Informationsaustauschs Grenzen gesetzt sind. Setzt man einen direkten Zusammenhang zwischen Kundennutzen, Kundenzufriedenheit und ökonomischem Erfolg der Wertschöpfungspartner voraus, leiten sich daraus zwei Schlussfolgerungen ab: 1. 2. Auch ein geringgradiger Informationsaustausch führt bereits zu einem deutlichen Nutzenzuwachs. Eine weitere Intensivierung des Austauschs stiftet überproportional viel Zusatznutzen. Im Hinblick auf den Transfer in die Praxis wurde die in PIPE entwickelte Lösung zunächst auf Kundendienstseite im Rahmen einer 2007 bundesweit durchgeführten empirischen Erhebung in der SHK-Branche unter Einbeziehung sowohl von Werks- als auch produktunabhängigen Kundendiensten evaluiert (N=129). Dazu wurden die aktuelle Situation im Technischen Kundendienst hinsichtlich verfügbarer Hilfsmittel und deren Nutzung erfasst, Anforderungen an eine mobile, interaktive Lösung wie die in PIPE konzipierte erhoben und der generelle Bedarf nach einer solchen Lösung explizit erfragt. Abbildung 5 zeigt zwei Teilergebnisse: zwar werden die schon verfügbaren Hilfsmitteln – auch IT-basierte, z. B. digitale Ersatzteilkataloge (ETK) – genutzt, das Interesse an einem mobilen Anwendungssystem wie dem hier dargestellten ist aber sehr hoch. 68% Anleitungen papierbasiert "Würden Sie das Informationswerkzeug einsetzen wollen?" Ziemlich wahrscheinlich: 42% 61% ETK auf Papier 56% ETK digital im Büro Vielleicht: 22% 53% Serviceordner 49% Hersteller-Hotline 46% Diagnose-/Fehlergeräte Wahrscheinlich nicht: 1% 44% Telefonate mit Kollegen 40% Hersteller-Website Ganz sicher: 35% 32% Anleitungen elektronisch 16% ETK digital unterwegs 0% 25% 50% 75% 100% Häufigkeit der Nutzung Abbildung 5: Nutzung von vorhandenen papier- und IT-basierten Hilfsmitteln und Wunsch nach einem prozessorientierten, mobilen Informationssystem im TKD der SHK-Branche In Experteninterviews haben sich auch auf Herstellerseite zurzeit noch ungedeckte Informationsbedarfe ergeben. So ermöglicht die Aufgabenteilung entlang der Wertschöpfungskette den SHKHerstellern zwar eine Konzentration auf ihre Kernkompetenzen, nämlich das Management ihres Zuliefernetzwerks sowie die Entwicklung und Herstellung technischer Geräte, schneidet sie aber informationstechnisch von der Nutzung der Produkte ab. Die hier anfallenden Informationen über konstruktive und servicetechnische Verbesserungspotentiale ihrer Produkte erreichen die Hersteller höchstens fragmentarisch über den Werkskundendienst bzw. über unregelmäßige und unstrukturierte Kommunikation mit den Kundendienstorganisationen, so dass auch hier die Entwicklung der dargestellten Lösung mit großem Interesse verfolgt wird. 6. Zusammenfassung und Ausblick Im vorliegenden Beitrag wurden auf Basis einer Analyse der Wertschöpfungsketten im Maschinenund Anlagenbau Verbesserungspotentiale insbesondere in Hinblick auf den unternehmensübergrei397 fenden Informationsfluss im Wertschöpfungsnetzwerk identifiziert. Daraus wurde zunächst eine Lösungsstrategie entwickelt, die in einer fachkonzeptionellen IT-Architektur konkretisiert und anhand eines Anwendungsbeispiels aus der betrieblichen Praxis veranschaulicht wurde. Zentraler Aspekt ist dabei der koordinierte, IT-gestützte Austausch von Informationen entlang der Wertschöpfungskette. Die abschließend skizzierte Evaluation des dargestellten Konzepts deutet darauf hin, dass der Lösungsansatz auf große Nachfrage stößt. Seine prototypische Umsetzung ist Gegenstand des Verbundforschungsprojekts PIPE und nähert sich derzeit der Fertigstellung. 7. Literaturangaben – Literaturhinweise [1] KLOSTERMANN, T., Optimierung kooperativer Dienstleistungen im Technischen Kundendienst des Maschinenbaus, Wiesbaden 2007. [2] TATARYNOWICZ, A., On Firms in Networks, St. Gallen 2008. [3] LEIMEISTER, J., GLAUNER, C., Hybride Produkte – Einordnung und Herausforderungen für die Wirtschaftsinformatik, in: Wirtschaftsinformatik. Bd. 50 (2008) 3, S. 248–251. [4] THOMAS, O., WALTER, P., LOOS, P., Product-Service Systems: Konstruktion und Anwendung einer Entwicklungsmethodik, in: Wirtschaftsinformatik. Bd. 50 (2008) 3, S. 208–219. [5] BÖHMANN, T. , KRCMAR, H., Hybride Produkte : Merkmale und Herausforderungen, in: M. Bruhn, B. Stauss (Hrsg.), Wertschöpfungsprozesse bei Dienstleistungen, Wiesbaden 2007. [6] BÖHMANN, T. , KRCMAR, H., Komplexitätsmanagement als Herausforderung hybrider Wertschöpfung im Netzwerk, in: F. Wojda, A. Barth (Hrsg.), Innovative Kooperationsnetzwerke, Wiesbaden 2006. [7] LAPIEDRA, R. et al., Role of Information systems on the business network formation process: an empirical analysis of the automotive sector, in: Journal of Enterprise Information Management. Bd. 17 (2004) 3, S. 219–228. [8] HÖFER, S., ZP-Stichwort: Wertschöpfungspartnerschaft, in: Zeitschrift für Planung. Bd. 7 (1996) 3, S. 303–307. [9] WERNER, H., Supply Chain Management : Grundlagen, Strategien, Instrumente und Controlling, Wiesbaden 2008. [10] HERTEL, J., ZENTES, J., SCHRAMM-KLEIN, H., Supply-Chain-Management und Warenwirtschaftssysteme im Handel, Berlin et al. 2005. [11] POZNANSKI, S., Wertschöpfung durch Kundenintegration : eine empirische Untersuchung am Beispiel von Strukturierten Finanzierungen, Wiesbaden 2007. [12] HERMES, P., Entwicklung eines Customer Self-Service-Systems im technischen Kundendienst des Maschinenbaus, Heimsheim 1999. [13] ENGELHARDT, W. H., KLEINALTENKAMP, M., RECKENFELDERBÄUMER, M., Leistungsbündel als Absatzobjekte : ein Ansatz zur Überwindung der Dichotomie von Sach- und Dienstleistungen, in: Schmalenbachs Zeitschrift für betriebswirtschaftliche Forschung. Bd. 45 (1993) 5, S. 395– 426. [14] SYSKA, A., Produktionsmanagement : Das A-Z wichtiger Methoden und Konzepte für die Produktion von heute, Wiesbaden 2006. [15] BAADER, A., MONTANUS, S., SFAT, R., After Sales Services : mit produktbegleitenden Dienstleistungen profitabel wachsen, in: K. Barkawi, A. Baader, S. Montanus (Hrsg.), Erfolgreich mit After Sales Services, Berlin 2006. [16] TÖPFER, A., Betriebswirtschaftslehre : anwendungs- und prozessorientierte Grundlagen, Berlin et al. 2007. [17] VAN BERTALANFFY, L., General System Theory : Foundations, Development, Applications, New York 2001. [18] PORTER, M.E., Wettbewerbsvorteile : Spitzenleistungen erreichen und behaupten, Frankfurt am Main 2000. [19] PAHL, G., BEITZ, W., FELDHUSEN, J., GROTE, K., Konstruktionslehre, Berlin 2007. [20] GEIGER, W., KOTTE, W., Handbuch Qualität, Wiesbaden 2008. [21] LINDEMANN, U. , BAUMBERGER, G. C., Individualisierte Produkte, in: U. Lindemann, R. Reichwald, M. F. Zäh (Hrsg.), Individualisierte Produkte : Komplexität beherrschen in Entwicklung und Produktion, Berlin 2006. [22] STILLE, F., Produktbegleitende Dienstleistungen gewinnen weiter an Bedeutung, in: Wochenberichte des DIW Berlin. Bd. 70 (2003) 21, S. 335–342. [23] TULI, K. R., KOHLI, A. K., BHARADWAJ, S. G., Rethinking Customer Solutions: From Product Bundles to Relational Processes, in: Journal of Marketing. Bd. 71 (2007) 3, S. 1–17. [24] CÄSAR, M.A., Service-Portale in Industrieunternehmen, Bamberg 2005. [25] DAUBEN, S.A., Qualitätsfehlercontrolling für Dienstleistungen im Investitionsgüterbereich : das Beispiel technischer Kundendienst, Wiesbaden 2001. [26] JARILLO, J. C., On Strategic Networks, in: Strategic Management Journal. Bd. 9 (1988) 1, S. 31– 41. [27] ZENTRALVERBAND SHK DEUTSCHLAND, Jahresbericht 2008, St. Augustin 2008. [28] PIPE, Hybride Wertschöpfung im Maschinen- und Anlagenbau, Saarbrücken 2008. PIPE wird vom Bundesministerium für Bildung und Forschung (BMBF) im Rahmen des Förderkonzepts „Innovation mit Dienstleistungen“ gefördert (Förderkennzeichen 01FD0623 und folgende). 398 VERTICAL INTEGRATION AND INFORMATION SHARING – AN EMPIRICAL INVESTIGATION IN THE GERMAN APPAREL INDUSTRY Christoph Goebel, Hanna Krasnova, Henning Syllwasschy, Oliver Günther1 Abstract Despite the astounding success of the fast fashion retailers, the management practices leading to these results have not been subject to extensive research so far. Given this background, we analyze the impact of information sharing and vertical integration on the performance of 51 German apparel companies. We find that the positive impact of vertical integration is mediated by information sharing, i.e. that the ability to improve the information flow is a key success factor of vertically integrated apparel supply chains. Thus, the success of an expansion strategy based on vertical integration critically depends on effective ways to share logistical information. 1. Introduction The astounding success of fast fashion retailers such as Zara and H&M is attracting the attention of the fashion industry worldwide. The triumph of these companies, expressed in 2-digit margins and constant growth, is tightly connected to the implementation of a supply chain strategy optimally aligned with consumer needs: quickly changing demand for fashion is translated into products at a reasonable price. Attracted by their success, many apparel companies currently try to mimic fast fashion practices. For some of them, improving supply chain performance is even a matter of survival: traditional clothing retailers, including major department store chains such as Galeria Kaufhof in Germany are suffering from steadily shrinking margins in their apparel business. The main reason for this development is the apparent inability of traditional retailers to satisfy current consumer wishes with respect to fashion and pricing. On the one hand, consumers increasingly long for choice and are becoming more fashion-savvy. A recent article of ‘The Economist’ [30] confirms the views of many fashion executives who feel a constant pressure to quickly pick up the latest trends and immediately supply clothing that adheres to them. On the other hand, consumers behave highly price sensitive when it comes to spending money on apparel. This is documented by the share of household income spent on apparel and footwear which has steadily declined in recent years [7]. The EU and U.S. consumer price indices for these product categories speak a similar language: they lag behind the average price index for consumer goods [7][31]. One of the key strategic questions in today’s apparel business is which building blocks of the fast fashion strategy should be adopted in order to improve performance. Thus, management practices 1 Humboldt-Universität zu Berlin, Germany 399 and organizational configurations that have a significant effect on firm performance have to be identified. A closer look at the management practices and organizational features of fast fashion retailers reveals at least two differences compared to traditional retailers: vertical integration and intensive information sharing between the manufacturing and retailing stage of the supply chain. In the traditional apparel supply chain, brand manufacturers are responsible for the design and manufacturing of products, whereas specialized retailers are responsible for selling the garments to the consumers. This task division has the advantage that each company can concentrate on their core competencies: while brand manufacturers apply their design and production know-how, retailers use their marketing expertise for presenting and selling different brands. In sharp contrast to this, the typical fast fashion company distributes its own brand all by itself. For this purpose it either operates its own stores or uses a distribution model based on concessions or franchising. Ferdows et al. [9] claim that the vertical integration of industry champions like Zara and H&M and the resulting control over the distribution process represents the key for their tremendous success. Vertical integration certainly plays a role in the fast fashion success formula. We hypothesize that it is rather an enabler for value generating management practices rather than a cause for superior performance by itself. In particular, companies that control the entire distribution process of their brand are able to access all relevant data related to the production and distribution of their products and thus have an informational advantage. Our interviews with industry insiders as well as earlier case study research support this hypothesis. For instance, Zara’s global store network can be conceived as a giant data collection device. The POS data is transmitted by hundreds of stores to the headquarters on a daily basis. This information enables detailed sales trend analyses as well as triggers design and production processes without any delay [13]. This of course is only possible when taking advantage of modern information technology [9][25]. In this paper, we investigate the impact of vertical integration and information sharing practices on the performance of apparel supply chains. In particular, we focus on the relationship between the degrees of control that brand manufacturers are able to exert over the distribution of their products and the intensity of information sharing between the production and distribution part of the supply chain. Our central hypothesis is that vertical integration is positively related to performance partly because it enables more intensive information sharing along the supply chain. We test our hypotheses using a data sample from the German apparel industry. In Section 2 we provide an overview of related literature. Our hypotheses and a conceptual model are presented in Section 3. In Section 4 we describe the employed methodology and the results of an empirical study in the German apparel industry. Section 5 discusses managerial implications of our work. Section 6 concludes. 2. Related Work Apparel supply chains are a popular topic in operations management research because the demand for fashionable apparel is usually highly uncertain, which calls for effective measures to cope with the resulting risk of over- and underage [22]. Fisher et al. [10] were the first to analytically show the positive effect of using the information on early sales to improve the accuracy of forecasts. A meanwhile well-known case study at Sport Obermeyer has demonstrated that the ‘accurate response’ technique truly works [11]. More recent case studies on supply chains and strategies in the apparel sector reveal the increasing influence of agile thinking in the business, mainly inspired by the success of fast fashion retailers [9][19]. 400 Vertical integration is usually equated with the concentration of ownership of facilities and assets along the supply chain in the hands of a single organization. Zara for instance can be considered as an almost fully vertically integrated apparel company since they own manufacturing and distribution facilities as well as a dedicated store network [9]. Richardson [27] analyses the advantages and disadvantages of vertical integration in the apparel sector. He sees its main drawback in the risk of exclusion from an efficient buyer market. Thus, vertical integration can impede the optimal allocation of the resources, which depends on the competition in corresponding markets (production, warehousing, transportation, retailing etc.) combined with the superior expertise of the specialized manufacturers, logistics providers and retailers. He explains the apparent success of vertically integrated fashion companies like Zara by observing that vertical integration facilitates quick response strategies. Vertical integration, he argues, enables these organizations to link design and production closely to retailing which makes them more responsive. The benefits of fast and accurate transmission of demand information along the supply chain have been shown by various authors [23][33]. We contribute to this research by considering the impact of vertical integration on this relationship. To the best of our knowledge, no study of this kind has been attempted so far. 3. Hypotheses and Conceptual Model Our conceptual model is made up of four interdependent hypotheses referring to three conceptual concepts. These concepts are Vertical Forward Integration (VFI), Intensity of Information Sharing (IIS), and Performance of Brand Owner (PBO). The exact meaning of these concepts as well as our hypotheses will be described in the following. The impact of information sharing on the business performance has been tested in various empirical studies (e.g. [23][33]), albeit not in our specific context. Based on their case study at Zara, Ferdows et al. [9] claim that intensive information sharing is particularly important in apparel supply chains since these have to cope with highly uncertain demand. We therefore hypothesize that: (H1) the intensity of the Information Sharing between the brand owner and the retailers is positively related to the Performance of the Brand Owner. Our second and third hypotheses refer to the impact of vertical integration. Richardson [27] considers a firm as vertically integrated if it owns assets, organizes activity, or controls activities in successive stages of the value chain. We focus on a special type of vertical integration, namely the Vertical Forward Integration of brand owners. Vertical Forward Integration refers to all measures taken by the brand owner to increase the control over the distribution channel including the acquisition of facilities and assets. This definition is in line with the common understanding of this term across industry (see [15]). Whereas Zara or H&M certainly mark an extreme of the vertical integration scale, most brand owners are somewhere in between, i.e. they neither own all points of sale nor do they act like the traditional clothing wholesaler who exerts no influence on sales operations at all. The positive connection between Vertical Forward Integration and Performance in the apparel sector is intensively discussed by Richardson [27], although not tested statistically. Extending his study we hypothesize that: (H2) Vertical Forward Integration is positively related to the Performance of the Brand Owners. A basic result of agency theory predicts that in situations when exchanges are characterized by uncertainty over inputs, infrequent exchange, and the need for transaction specific investments, 401 vertical integration can be efficient. This is because vertical integration reduces the incentives for information hiding and misrepresentation [14]. Here, the tradeoff is between improved information and reduced performance incentives. The assumption of uncertainty is certainly applicable to the apparel sector, where the demand is very uncertain. In line with this finding, information systems and information sharing processes can certainly be implemented more easily within one company than between several different companies. We can therefore hypothesize that: (H3) Vertical Forward Integration is positively related to the Intensity of Information Sharing between the apparel brand owner and the retailers. Figure 1. The conceptual model Hypothesis 4 summarizes the relationships described above (H1-H3) and is central for our work. It tests the assumption that vertical integration per se is an important but not a sufficient condition of the success of the brand owner. In other words, we assume that that the positive influence of vertical integration in the apparel industry is largely due to the improved information flow it enables. We therefore hypothesize that: (H4) the expected positive influence of the Vertical Forward Integration on the Performance of the Brand Owners is mediated by the Intensity of the Information Sharing between the apparel brand owner and the retailers. Figure 1 summarizes the hypotheses (H1, H2, H3) into a conceptual model (Model A). Additionally, in order to prove hypothesis H4, Model B, consisting of a simple direct link from the Vertical Forward Integration to the Performance of the Brand Owners, is tested as explained in Section 4.3. 4. Empirical Study 4.1 Survey Design and Sampling We developed a survey instrument which aimed to capture the Vertical Forward Integration, Intensity of Information Sharing, and the Performance of the Brand Owner constructs as well as some descriptive statistics. In the forefront of the survey several industry experts and representatives were interviewed, partly in person, partly over the phone. The interviews served for gaining a better understanding of the drivers of the current vertical integration trend in the apparel industry as well as to fulfil formal requirements. In particular, the survey questions were discussed one by one to ensure the content validity of the measured constructs. This procedure also ensured 402 that the terms used in the survey were clear and equally interpreted by the practitioners. As a second step, general contact details and company descriptions of 440 medium and large-sized apparel companies operating in Germany were extracted from various publicly available databases. After eliminating the companies which didn’t match the research objectives (e.g. company turnover), 350 companies were contacted by phone in order to identify a competent contact person (usually the head of logistics or marketing). Finally, 307 verified contacts were asked for participation in a standardized online questionnaire per mail and phone. The data collection effort resulted in 88 answered questionnaires out of which 51 were usable. Thus, the response rate was 16.6%. The survey was conducted in an anonymous manner to encourage participants to honestly answer the questions. Data collection took place from January until April 2008. In order to evaluate the representativeness of the sample, we analyzed its distribution with respect to four basic company profile indicators: size of revenue, number of employees, product life cycle, and price segment of goods sold as shown in Table 1. None of the four indicators exhibits any unexpected concentration. According to the opinion of interviewed fashion executives, the sample represents the brand owner side of the German apparel industry fairly well. Additional sample profiling data can be obtained from the authors upon request. Table 1. Sample characteristics Revenues in mln. Euro % of companies Employees % of companies <50 50 - 100 100 - 200 >200 18.6% 34.9% 18.6% 27.9% <200 200 -500 500 -1,000 >1,000 28.3% 41.3% 10.9% 19.6% No of assortments per year 1-2 3-4 >4 % of companies Pricing Segment % of companies 23.4% 40.4% 36.2% lower price medium price high price 14.6% 60.4% 25% 4.2 Measurement Scales The three constructs which our hypotheses are based on – Vertical Forward Integration, Intensity of Information Sharing, and the Performance of the Brand Owner – were measured using multiple indicators. These indicators formed the corresponding measurement scales. In accordance with our definition of Vertical Forward Integration, the items we used to operationalize the corresponding conceptual construct reflect the degree of control exerted by the brand owner over distribution activities of the retailers as well as the degree of vertical forward integration of the brand owner in terms of assets and facilities. The items measuring the control over the distribution process were adopted from the work of Etgar [8]. These items were complimented by the self-developed scales for asset and facility possession. The scales used to measure the Intensity of Information Sharing construct were adopted from the work of Li and Lin [23]. They cover completeness, detail, timeliness, and reliability of the information sharing activities between the retailers or POSs and the brand owner. Not surprisingly, company performance has been measured many times before; thus there exists an abundance of tested scales in the literature. The items of the Performance construct were drawn from the pool of the already available items of Bhatnagar and Sohal [3], Mattila et al. [24], and Hallén et al. [17]. All metrics were chosen keeping the targeted industry in mind but are sufficiently general to allow for comparability. 4.3 Statistical Methodology The purpose of the statistical analysis is to explain the links between exogenous and endogenous variables. In our conceptual model, these are the constructs Vertical Forward Integration, Intensity of Information Sharing and Performance of the Brand Owner. None of these so-called latent 403 variables can be observed directly but are measured by indicators (measurement scales). The relationship of the latent variables and the indicators is specified by the Measurement Model. The overall model which includes the defined relationships between the latent variables reflecting the hypotheses is called Structural Equation Model (SEM). Estimation of the SEMs can be done on the basis of two different methodologies: analysis of covariance [16] or the analysis of variance [32]. The latter is also referred to as the Partial Least Squares (PLS) approach. In this study we evaluate our model using the PLS approach for several specific reasons. First, PLS methodology is a preferred option when the theory behind the model is not strong [12]. Taking into account the novelty of our research terrain PLS was a straightforward choice. Second, as opposed to the covariance-based approach, the PLS does not place very high sample size constraints. Barclay et al. [2] mention the rule of thumb that the required sample size for using PLS has to be at least ten times the number of exogenous constructs having an impact on the most complex endogenous construct which amounts to a minimum of 20 observations in our case. With 51 observations this criterion was easily fulfilled. All calculations were carried out using SmartPLS version 2.0.M3, a statistical package developed for the estimation of SEMs using the PLS approach [28]. As proposed by Chin [6], evaluation of the structural equation model is done in two steps. First, the statistically measurable validity of the measurement model is tested. Thereafter, the structural model is evaluated. This procedure allows us to test hypotheses H1, H2 and H3. Furthermore we evaluate the mediation effect of the Intensity of Information Sharing variable (H4), i.e. whether the positive impact of vertical forward integration on performance can be explained by a higher degree of information sharing enabled by it. This mediation effect is tested based on the approach outlined by Baron and Kenny [4][18]. Thus, a simple model (Model B) with a direct causal link from the VFI construct to the PBO construct is additionally evaluated. The mediation effect exists if the significant VFI Æ PBO path in Model B becomes insignificant once the mediator variable (IIS) is integrated into the model (Model A) [4][18]. 4.4 Evaluation of the Measurement Model According to the standard validation procedure, the evaluation of the measurement model comprises the evaluation of the Convergent and Discriminant Validity. The criteria used to test the Convergent Validity are the Indicator Reliability of the chosen items, the Composite Reliability and the Average Variance Extracted (AVE) for each latent variable, and Cronbach’s Alpha. In order to test hypothesis H4, two models (Model A and Model B) are evaluated. In order to assure Indicator Reliability, each latent variable should be accountable for at least 50 percent of the variance of the corresponding indicator. Thus, the loading of a latent variable on the individual indicator should return a value larger than 0.7 [5][21]. According to Hulland [21] indicators with loadings less than 0.4 should be eliminated. 15 indicators fulfilled the former requirement exceeding the threshold of 0,7. We have left 3 other indicators with the loading values of 0.61; 0.57; 0.62 in the model to ensure the content validity of the measured constructs. Furthermore, Cronbach’s Alpha, a measure of Internal Consistency, for all constructs was assessed. As can be seen in Table 2, its values were higher than the required threshold of 0.7 for all latent constructs [26]. In order to ensure Composite Reliability, its value should exceed 0.6 for all constructs [20]. Additionally, the AVE values of all constructs should to be at least 0.5 since otherwise the variance due to the measurement error would be higher than the variance captured by the corresponding construct [12]. As can be seen in Table 2, the Composite Reliability and AVE thresholds were surpassed by all constructs. Discriminant Validity refers to the degree to which measures of distinct concepts differ [1]. According to Fornell and Larcker [12], Discriminant Validity is ensured when the AVE values for all latent variables stay greater than the squared 404 correlation between the latent variable and any of the other latent variables in the same model. This criterion was ensured for all constructs (see Table 3). The second criterion to assure Discriminant Validity requires that the factor loadings of every indicator are greater than any of the crossloadings, i.e. the loading of the indicator on another than the construct it is supposed to measure. This criterion was also met by both of the estimated models (A and B). Table 2. Quality criteria of the constructs Model A B Construct VFI IIS PBO VFI PBO Number of indicators 6 6 6 6 6 Composite Reliability 0.866 0.970 0.948 0.867 0.948 Average Variance Extracted (AVE) 0.526 0.844 0.755 0.524 0.755 Cronbach’s Alpha 0.815 0.963 0.934 0.815 0.934 Table 3. Square root of AVE (diagonal elements) and correlations between latent variables (off-diagonal elements) Construct VFI IIS PBO Model A VFI IIS 0.73 0.563 0.92 0.417 0.632 PBO Construct VFI PBO Model B VFI PBO 0.72 0.44 0.87 0.87 4.5 Evaluation of the Structural Model and the Mediation Effect As opposed to the covariance-based approach, no overall measures of goodness of fit are available when using PLS. Chin [6] argues that in Structural Equation Modeling the importance of goodness of fit measures is generally overestimated. The model validity in PLS can be evaluated by examining the resulting R2 values and the structural paths [29]. Evaluation of the significance of the path coefficients is done via a bootstrapping procedure, since there are no assumptions on how the latent variables are distributed. Evaluation results concerning the Structural Models (Models A and B) are presented in Figure 2. The results of the PLS analysis show that 40.4% of the variance in the dependent variable (Performance of the Brand Owner) is explained by the variables in the model. Recommendations for an acceptable level of R² range from 33% to 67% and above [29]. Taking into account the novelty of the research topic, such explanatory power of the model is high. At the next step the values of the path coefficients and their significance were evaluated for Models A and B. It is recommended that the values of the path coefficients exceed the 0.2 threshold [29]. We find that the path coefficient between Vertical Forward Integration and Intensity of Information Sharing (VFI Æ IIS) is high (0.563) and significant. Similarly, there exists a strong significant link(0.582) between Intensity of Information Sharing and the Performance of the Brand Owner (IIS ÆPBO). Thus, hypotheses H3 and H1 are supported. We find the link between Vertical Forward Integration and the Performance of the Brand Owner to be insignificant for model A, which rejects hypothesis 2 (H2). The evaluation of the Model B, when the IIS construct is removed, rendered a strong (0.431) and significant link between both constructs. The explained variance in the dependent variable (Performance of the Brand Owner) drops to R²=0.191. The comparison of Models A and B clearly confirms the presence of a strong mediation effect of the IIS variable. Thus, hypothesis H4 is confirmed. 405 Figure 2. Results of Structural Models’ Evaluations (PLS) 5. Discussion and Managerial Implications The statistical results show that Vertical Forward Integration alone is not a sufficient condition for the success in the fashion business: H2 was not supported by out data. However, our model shows that vertical integration does have an indirect impact on performance because it enables profitable information sharing practices (H3, H1). Indeed, we find that Intensity of Information Sharing along the supply chain mediates the relationship between Vertical Forward Integration and Performance (H4). The importance of free information flow in the apparel supply chain is an important finding of our study: a high intensity of information sharing activities between the brand owner and the retailers involved in the distribution of apparel leads to increased performance of the brand manufacturer (H1). The high and significant path coefficient is an indication of the extremely high relevance of timely demand signals in the fashion business. Our results suggest that while logistical information seems to be shared intensively within vertically integrated fashion companies, it is usually not shared in distribution systems where the brand owner exerts little control over the retailers. If their superior information flow is what distinguishes fast fashion retailers, the performance of the traditional apparel manufacturers and/or wholesalers could be improved by inter-organizational information sharing and collaboration. Information sharing across organizational borders requires both: information technology that supports the fast and reliable exchange of data (e.g. EDI, RFID) and setting the right incentives for sharing information reliably and truthfully. 6. Conclusions Motivated by the astounding achievements of the fast fashion companies, the aim of this paper was to empirically identify important drivers of success in the apparel industry. We find that solely exerting more control over subsequent supply chain stages is an important but not a sufficient condition for the success of brand owners. The increase of supply chain control, which is usually achieved by vertical forward integration, is found to be an enabler of information sharing practices along the supply chain. Intensive information sharing in turn is a crucial ingredient of a successful supply chain strategy in the apparel sector. Our results motivate further research on how to enable effective information sharing among apparel manufacturers and retailers without the need for manufacturers to open their own stores. 406 7. References [1] BAGOZZI, R. P., PHILLIPS, L. W., Representing and Testing Organizational Theories: A Holistic Construal, in: Administrative Science Quarterly, 27:3 (1982). [2] BARCLAY, D., HIGGINS, C., THOMPSON, R., The PLS Approach to Causal Modeling: Personal Computer Adoption and Use as an Illustration, in: Technology Studies, 2:2 (1995). [3] BHATNAGAR, R., SOHAL, A. S., Supply Chain Competitiveness: Measuring the Impact of Location Factors, Uncertainty and Manufacturing Practices, in: Technovation, 25:5 (2005). [4] BARON, R. M., KENNY, D. A., The Moderator-Mediator Variable Distinction in Social Psychological Research: Conceptual, Strategic and Statistical Considerations, in: Journal of Personality and Social Psychology, 51:6 (1986). [5] CARMINES, E., ZELLER, R., Reliability and Validity Assessment, Sage Publications, 1979. [6] CHIN, W., Issues and Opinion on Structural Equation Modeling, in: MIS Quarterly, 22:1 (1998). [7] CONFEDERATION OF THE GERMAN TEXTILE AND FASHION INDUSTRY, Statistics for the German Textile and Apparel Industry, 2006. [8] ETGAR, M., Channel Environment and Channel Leadership, in: Journal of Marketing Research, 14:1 (1977). [9] FERDOWS, K.; LEWIS, M. & MACHUCA, J., Rapid-Fire Fulfilment, in: Harvard Business Review, 2004. [10] FISHER, M., RAMAN, A., Reducing the Cost of Demand Uncertainty through Accurate Response to Early Sales, in: Operations Research, 44:1 (1996). [11] FISHER, M., OBERMEYER, W., RAMAN, A., Making Supply Meet Demand in an Uncertain World, in: Harvard Business Review, 1994. [12] FORNELL, C., LARCKER, D. F., Evaluating Structural Equation Models with Unobservable Variables and Measurement Error, in: Journal of Marketing Research, 18:1 (1981). [13] GHEMAWAT, P., NUENO, J. L., ZARA: Fast Fashion, Harvard Business School Case No. 703-497, Harvard Business School Press, 2003. [14] GROSSMAN, S. J., HART, O. D., The Costs and Benefits of Ownership: A Theory of Vertical and Lateral Integration, in: Journal of Political Economy, 94:4 (1986). [15] GRÜGER, M., Die Vertikalisierung der Textilwirtschaft durch Handelsmarken, Produktdesignteams, Shop-inShop- und Concession-Konzepte, Doctoral Thesis, Universität zu Köln 2007. [16] JÖRESKOG, K. G. KRISHNAIAH, P. R., Structural Equation Models in Social Sciences: Specification, Estimation and Testing, in: P. R. Krishnaiah (Ed.), Applications of Statistics, Amsterdam, 1977. [17] HALLÉN, L., JOHANSON, J., SEYED-MOHAMED, N., Interfirm Adaptation in Business Relationships, in: Journal of Marketing, 55:2 (1991). [18] HASSANEIN, K. AND HEAD, M., Manipulating Perceived Social Presence through the Web Interface and its Impact on Attitude towards Online Shopping, in: International Journal of Human-Computer Studies, 65:8 (2007). [19] HAYES, S., JONES, N., Fast Fashion: A Financial Snapshot, in: Journal of Fashion Marketing and Management, 10:3 (2006). [20] HOMBURG, C., BAUMGARTNER, H., Beurteilung von Kausalmodellen – Bestandsaufnahme und Anwendungsempfehlungen, in: Marketing ZFP 3:3 (1995) [21] HULLAND, J., Use of Partial Least Squares (PLS) in Strategic Management Research: A Review of Four Recent Studies, in: Strategic Management Journal, 20:2 (1999). 407 [22] LEE, H. L., Aligning Supply Chain Strategies with Product Uncertainties, in: California Management Review, 2002. [23] LI, S., LIN, B., Accessing Information Sharing and Information Quality in Supply Chain, in: Management Decision Support Systems, 42:3 (2006). [24] MATTILA, H., KING, R., OJALA, N., Retail Performance Measures for Seasonal Fashion, in: Journal of Fashion Marketing Management, 6:4 (2002). [25] MCAFEE, A., SJOMAN, A., DESSAIN, V., Zara: IT for Fast Fashion, Harvard Business School Case No. 604081, Harvard Business School Press, 2004. [26] NUNNALLY, J. C., Psychometric Theory, 2nd Edition, McGraw-Hill, New York, NY 1978. [27] RICHARDSON, J., Vertical Integration and Rapid Response in Fashion Apparel, in: Organization Science, 7:4 (1996). [28] RINGLE, C. M., WENDE, S., WILL A., SmartPLS 2.0, Release 2.0.M3, Hamburg, Germany, 2005. [29] RINGLE, C. M., Gütemaße für den Partial Least Squares-Ansatz zur Bestimmung von Kausalmodellen, Working paper 16, Institute of Industrial Management, University of Hamburg, 2004. [30] THE ECONOMIST, The Future of Fast Fashion: Inditex, 375:8431, 2005. [31] U.S. DEPARTMENT OF LABOR, Reflections: 100 Years of U.S. Consumer Spending, http://www.bls.gov/opub/uscs/reflections.pdf, last accessed 15/07/2008. [32] WOLD, H. Soft Modeling: The Basic Design and Some Extensions, in: K. G. Jöreskog, H. Wold (eds.), Systems under indirect observations: causality, structure, prediction, Part 2, Amsterdam 1982. [33] ZHOU, H., BENTON, W., Supply Chain Practice and Information Sharing, in: Journal of Operations Management, 25:6 (2007). 408 WEBSERVICES FÜR DIE VERRECHNUNG IN WERTSCHÖPFUNGSNETZWERKEN AUF BASIS VOLLSTÄNDIGER FINANZPLÄNE Jörg Becker, Ralf Knackstedt, Martin Matzner1 Kurzfassung Das Angebot von integrierten Bündeln aus Sach- und Dienstleistungen im Rahmen so genannter Hybrider Wertschöpfungsnetzwerke stellt neue Anforderungen an die Informationssysteme der beteiligten Partner. Daten und Prozesse sind zu integrieren, um die Lösungen effektiv anbieten zu können. Die Verrechnung ist eine Teilaufgabe der Netzwerkkoordination. Gegenstand ist die Planung, Durchführung und Kontrolle von Zahlungsströmen zwischen den Partnern und gegenüber dem Endkunden. Der Beitrag untersucht, welche Webservices im Rahmen einer Serviceorientierten Architektur bereitgestellt werden sollten, um die Verrechnung für Hybride Wertschöpfung zu unterstützen. Dazu wird analysiert, welche Daten durch die Informationssysteme der Netzwerkpartner verfügbar gemacht werden müssen. Entwicklungsmöglichkeiten für zusätzliche betriebswirtschaftliche Funktionalität zur Unterstützung des Verrechnungsprozesses werden aufgezeigt. 1. Verrechnung in Hybriden Wertschöpfungsnetzwerken Produzierende Industrieunternehmen wandeln heute vielfach ihre Geschäftsmodelle von einer ausschließlich sachgutfokussierten Fertigung hin zu um Dienstleistungen angereicherten oder gar dienstleistungsdominierten Angeboten [11]. Im Rahmen der so genannten Hybriden Wertschöpfung werden dazu physische Produkte gezielt in Kombination mit spezifischen Dienstleistungen angeboten. Der Fokus liegt dabei auf der gesamtheitlichen Nutzenerbringung beim Endkunden, dem die Leistungen als integrierte Bündel angeboten werden. Teilweise können Sach- und Dienstleistungskomponenten gegeneinander ausgetauscht werden, um den erforderlichen Lösungsbeitrag beim Kunden zu erzielen. Angeboten werden derartige Konzepte häufig in der Form verfügbarkeits- und ergebnisorientierter Geschäftsmodelle [7]. Verfügbarkeits- und ergebnisorientierte Geschäftsmodelle garantieren die Verfügbarkeit des Sachgutes vertraglich. Im Rahmen ergebnisorientierter Geschäftsmodelle betreibt der Kunde die Maschine nicht mehr selbst, sondern ruft nur vereinbarte Produktionsergebnisse ab [1]. Zur Realisierung der Geschäftsmodelle muss das herkömmliche Sachleistungsangebot um spezifische Dienstleistungen angereichert werden. Verfügt der Sachgutproduzent über die nötigen Fähigkeiten und Ressourcen, kann die Einführung der neuen 1 Universität Münster, European Research Center for Information Systems, Leonardo-Campus 3, 48149 Münster 409 Geschäftsmodelle auch unternehmensintern vorgenommen werden. Andernfalls bietet sich die Kooperation mit externen Dienstleistern an. Die Realisierung solcher Geschäftsmodelle erfordert eine Beherrschung der wechselseitigen Abhängigkeiten von Sach- und Dienstleistungskomponenten und eine Koordination und Steuerung der gemeinsam erbrachten Wertschöpfung durch produzierende und dienstleistende Einheiten. Die Komplexität der Bearbeitung von Kundenaufträgen steigt stark, wenn verschiedene Geschäftseinheiten innerhalb eines Konzerns oder gar externe Partner daran beteiligt sind [5]. Die Folgen sind lange Durchlaufzeiten und Prozessfehler und schließlich hohe Kosten. ITUnterstützung ist zur Beherrschung dieser Komplexität unabdingbar. Webservices eignen sich durch ihre Kapselung von Funktionalität hinter präzise beschriebenen Schnittstellen, die Integration der heterogenen Informationssystemlandschaften von Produktion und Dienleistung zu unterstützen. Die Kundenauftragsabwicklung umfasst sämtliche betrieblichen Aktivitäten von der Erfassung eines Auftrags über den Warentransport bis zur Abrechnung der Leistung gegenüber den Kunden und schließlich deren Bezahlung [9]. Die zuvor skizzierten Veränderungen in den Geschäftsmodellen führen zu neuen intra-organisationalen Schnittstellen [2][5]. Mit der Folge, dass Anreiz-, Motivations-, Vergütungs- und Controllingsystem für die Leistungsverrechnung in ihrer Gänze zu überprüfen sind [8]. Im Rahmen dieses Beitrages wird mit der Verrechnung ein Teilbereich dieser Koordinations- und Steuerungsfunktionen genauer untersucht. Die Verrechnung umfasst im Rahmen der Hybriden Wertschöpfung einerseits den operativen Zahlungsverkehr gegenüber dem Endkunden als Abnehmer des Leistungsbündels. Andererseits müssen zwischen den kooperierenden Einheiten jeweils eingebrachte Leistungen vergütet und zusätzlich generierte Gewinne (und Verluste) verteilt werden. Dazu soll folgende Forschungsfrage adressiert werden: Welche Webservices sollten die Verrechnung unterstützen, sodass dienstleistende und produzierende Einheiten in Hybriden Wertschöpfungsnetzwerken flexibel miteinander kooperieren können? Aufbauend auf einem Konzept zur Verrechnung in Supply-Chains wird dazu ein Modell zur Verrechnung in Hybriden Wertschöpfungsnetzwerken entworfen. Es wird dargestellt, welche Informationen Produktion und Dienstleistung zu einem gemeinsamen Verrechnungssystem beitragen müssen. Webservices, die diese Informationen verarbeiten, werden anhand ihrer Schnittstellen beschrieben und Bedarf für weitere betriebswirtschaftliche Funktionalität aufgezeigt. 2. Verrechnung mithilfe Vollständiger Finanzpläne Ein Konzept für die Verrechnung zwischen Wertschöpfungspartnern stammt von HOLTEN UND SCHULTZ [6] und wurde für die Zusammenarbeit in Supply-Chains konzipiert. Das Modell basiert auf dem Konstrukt Vollständiger Finanzpläne nach GROB. Der Vollständige Finanzplan (VOFI) ist eine Methode des Investitionscontrollings (vgl. im Folgenden [4][3]). In einem VOFI werden sämtliche einem Investitionsobjekt zurechenbaren Zahlungen (Ein- und Auszahlungen) einschließlich der monetären Konsequenzen finanzieller sowie weiterer investiver Maßnahmen (z. B. Re- und Ergänzungsinvestitionen) explizit dargestellt und zeitlich terminiert. Zu jeder Periode eines VOFI werden Zahlungen, in die Investition eingebrachtes Eigenkapital, Kredite, Anlagen sowie Ertragssteuerzahlungen erfasst und miteinander zu Bestandssalden verrechnet. Für das Modell existieren zahlreiche Erweiterungsansätze. So können etwa alternative Finanzierungs- und Anlageoptionen integriert werden, um z. B. mithilfe Linearer Optimierung im Rahmen simultaner Planung optimale Finanzierungs- und Anlagevarianten für 410 Investitionsprojekte zu ermitteln. Abbildung 1 zeigt ein entsprechendes Modell, das die Wahl zwischen sechs Investitionsprojekten (GIO1,2, X1,…,X4) betrachtet. Die K* beschreiben alternative Finanzierungsmöglichkeiten. Eine Standardanlage wurde berücksichtigt. Abbildung 1: Simultane Planung von Finanzierung und Anlageoptionen (vgl. [4]) Folgende Charakteristika machen den VOFI also zu einem für die Problemstellung besonders geeigneten Instrument: Es weist Originalgrößen in einem Totalkalkül aus und erhöht damit die Transparenz, individuelle Konditionen für Zinssätze können berücksichtigt und unterjährige Verzinsungen von Guthaben- und Kreditbeständen abgebildet werden. Das VOFI-Konzept zeichnet sich durch Einfachheit wegen seiner Transparenz und Ausbaufähigkeit (durch eine mögliche Weiterverarbeitung der Grunddaten) aus [4]. HOLTEN UND SCHULTZ fassen das Verteilungsproblem von durch Synergien erwirtschafteter Erträge zwischen Teilnehmern einer Supply-Chain als Investitionsproblem auf. Dazu bewerten die Partner zunächst ihre (privaten) Finanzpläne mithilfe des so genannten Basis-VOFIs (1) unter der Annahme der Fortsetzung der bisherigen Geschäftstätigkeit. Mithilfe des Summen-VOFIs (2) werden Materialflüsse im Rahmen einer möglichen Supply-Chain-Kooperation zu gängigen Marktpreisen bewertet. Abschließend wird ein Supply-Chain-VOFI aufgestellt, der sich vom Summen-VOFI durch die Integration von Synergieeffekten unterscheiden solle. Die Differenz der Endwerte von Supply-Chain-VOFI und Summen-VOFI sei der durch Teilhabe an der Chain generierte Mehrwert, den sich die Partner aufteilen können. Das Modell adressiert damit die Planungsphase der Verrechnung. Im Rahmen dieses Beitrags soll der Ansatz aufgegriffen und auf den Kontext der Hybriden Wertschöpfung übertragen werden. Er wird um eine operative Ausgestaltung durch die Identifizierung relevanter Informationsflüsse erweitert. Zusätzlich werden die Phasen Durchführung und Kontrolle betrachtet. 3. Webservices für die Verrechnung in Wertschöpfungsnetzwerken auf der Basis Vollständiger Finanzpläne 3.1 Überblick Ausgangspunkt für die Gestaltung einer Serviceorientierten Architektur für die Verrechnung sind die Informationen, die Produzenten und Dienstleister zu einer gemeinsamen Verrechnung beitragen müssen und die Informationen, die Ihnen durch ein gemeinsam genutztes Verrechnungssystem verfügbar gemacht werden. Der Verrechnungsprozess lässt sich in die Phasen des allgemeinen Managementprozesses mit Planung, Durchführung und Kontrolle der Verrechnung einteilen. Für jede dieser Phasen wurde ausgehend von den zuvor diskutierten Konzepten und durch die Analyse von drei explorativen Fallstudien von Produzenten-Dienstleister-Kooperationen erhoben, welche Informationen dies sind. Die Fallstudien (FS) analysierten solche Kooperationen entlang des Lebenszyklus eines physischen Produktes (FS1: kundenindividuelle Beratung und Konzeption zu 411 Industriegütern; FS2 produktbegleitende Dienstleistungen eines Produzenten während der Nutzungsphase; FS3: sog. End-of-Life-Solutions wie Recycling und Remarketing). Tabelle 1 strukturiert den Untersuchungsbereich. In den folgenden Unterkapiteln werden Webservice-Spezifikation diskutiert, die einerseits diese Informationen verfügbar machen (datenorientierte Webservices), teils zusätzliche betriebswirtschaftliche Funktionalität bereitstellen, die die Koordinationsfunktionen der Verrechnung realisieren und Konsumenten der Daten sind (funktionsorientierte Webservices). Tabelle 1: Informationsobjekte für die Verrechnung in Hybriden Wertschöpfungsnetzwerken Planung _Zahlungsfolgen für alternative Formen der Kooperation _Finanzierungsoptionen _Investitionsoptionen _Verrechnungsmodell und zugehörige Parametrisierung Durchführung _Kundenzahlungen _eingebrachte Ressourcen _unterperiodische Verrechnung _periodische Verrechnung Kontrolle _Zahlungsfolgen für alternative Formen der Kooperation _Finanzierungsoptionen _Investitionsoptionen _Verrechnungsmodell und zugehörige Parametrisierung _Kundenzahlungen _eingebrachte Ressourcen _unterperiodische Verrechnung _periodische Verrechnung _Parametrisierung für Exception-Reporting _Kontrollbericht 3.2 Planung der Verrechnung 3.2.1 VOFI-Service Zentrales Element des Konzeptes ist der VOFI-Service. Er repräsentiert das Rechenschema eines klassischen Vollständigen Finanzplanes und dient somit der Ermittlung des Endwertes der Zahlungsfolge einer Investition unter Berücksichtigung derivativer Zahlungsfolgen, die sich aus benötigten Krediten, Anlagemöglichkeiten für eingehende Zahlungen und Ertragssteuern ableiten (vgl. Kap. 2). Dazu verdichtet er eingehende Informationsobjekte, die von produzierenden und dienstleistenden Einheiten beigesteuert werden. Diese werden sukzessive integriert und schließlich zu einem einzelnen so genannten Endwert (Accumulated Value) der Kooperation zusammengefasst (vgl. Abbildung 2). Diese Informationen betreffen die vier Teilbereiche: Einzahlungen (Incoming Payments), Auszahlungen (Outgoing Payments), Informationen zu Finanzierungs- (Credit Information) und Anlageoptionen (Investment Information). Die Funktionalität des VOFIs wird in unserem Konzept in dreifacher Ausprägung in verschiedenen Phasen der Verrechnung aufgegriffen: als Basis-, Summen- und Kooperations-VOFI. Wir beziehen uns auf und erweitern hier die Arbeit von HOLTEN und SCHULTZ [6]. _Basis-VOFI: Der Basis-VOFI folgt dem originären VOFI-Ansatz. Sowohl produzierendes als auch dienstleistendes Unternehmen erfassen hier sämtliche Finanzströme, die für das Unternehmen im Rahmen der Geschäftstätigkeit anfallen, ohne an der Kooperation zur hybriden Wertschöpfung teilzunehmen. _Summen-VOFI: Alle von der möglichen Kooperation betroffenen Finanzströme werden anschließend in einem so genannten Summen-VOFI zusammengefasst. Dabei werden diejenigen 412 Zahlungsströme der betrachteten Einheiten angenommen, die bei marktlich koordinierter Zusammenarbeit anfallen würden, sollte das verfolgte Geschäftsmodell realisiert werden. Dabei werden marktübliche Verrechnungspreise für das Einbringen von Leistungen in den Anbieterverbund unterstellt. _Kooperations-VOFI: Der Kooperations-VOFI dient zunächst als Planungsinstrument zur Vertragsgestaltung (und Gewinnaufteilung) zwischen den Kooperationspartnern. Während der Durchführung wird er sukzessive mit Ist-Daten gefüllt und kann dann in der Kontrolle zum Vergleich mit den Plan-Werten herangezogen werden (Delta-Modell, [10]). Simultane Planung VOFI AccumulatedValue Basis-VOFI IncomingPayments OutgoingPayments Summen-VOFI CreditInformation Kooperations-VOFI Investment Information Plan-Daten Ist-Daten Abbildung 2: Der VOFI-Service – Varianten und Zusammensetzung Wir realisieren das VOFI-Konzept mithilfe eines gleichnamigen Webservices, der zunächst nur über die Standardfunktionen „Erzeugen“ (generiert zu einem VOFI eine ID) und „Löschen“ verfügt [3]. Auf eine detailliertere Darstellung wird hier verzichtet. Da sowohl Basis-, Summen- und Kooperations-VOFI der „klassischen“ Struktur Vollständiger Finanzpläne (vgl. Kap. 2) folgen, können alle drei Ausprägungen mithilfe eines gemeinsamen Webservices „VOFI“ repräsentiert werden. Die später gezeigten zugehörigen Funktionen können je nach Ausprägung voneinander (geringfügig) abweichen. Wir beginnen mit der Erfassung der Basis-VOFIs der Wertschöpfungspartner. Zunächst sind sämtliche für die Unternehmung anfallenden Finanzströme der Geschäftstätigkeit zu erfassen und dadurch Ein- und Auszahlungen periodenindividuell zuzuordnen. Es handelt sich, wie erläutert, um Plan-Werte der fortgeführten Geschäftstätigkeit [6], ohne dass eine Anpassung des Geschäftsmodells durch den Beitritt zur Kooperation erfolgt. Der „VOFI-Webservice“ stellt hierzu die Methode recordIncomingPaymentsPlanned() bereit (vgl. Abbildung 3). Partner- und Beleg (Receipt)-ID sind in dieser Stufe noch irrelevant. Die VOFI.ID wurde bei der Generierung des VOFI-Konstruktes erzeugt und wird nun als Referenz übergeben. Anschließend sind für eine Periode (Period) eingehende Zahlungen (IncomingPayments) zu erfassen. Die Erfassung ausgehender Zahlungen erfolgt mittels recordOutgoingPaymentsPlanned() analog. Damit kann die Zahlungsfolge des originären Cash-Flows bereits gebildet werden: buildPaymentCyclePlanned(). Die Zahlungsfolge ist nun um abgeleitete, so genannte derivative Ein- und Auszahlungen zu ergänzen. Dazu werden mittels der Services addCreditOpportunity() und addInvestmentOpportunity() Finanzierungs- und Anlagealternativen hinterlegt. Die Funktion buildFinanceInvestmentFlow() bildet daraufhin die derivativen Finanzströme unter Berücksichtigung der bei der Erstellung der VOFIs als Rahmenparameter hinterlegten Steuersätze. Der Endwert des VOFI lässt sich über buildAccumulatedValue() abfragen. 413 Abbildung 3: Funktionen zur Erfassung der Zahlungsfolge des VOFI-Services Alle von der Kooperation betroffenen Zahlungsströme der betrachteten Einheiten werden nun wie erläutert zusammengefasst und im so genannten Summen-VOFI hinterlegt. Dabei werden die Leistungen der Kooperationspartner mit Marktpreisen bewertet. Die Erfassung kann nur manuell erfolgen, weil die Zurechenbarkeit der Finanzströme zur Kooperation anders nicht sichergestellt werden kann. Die Erfassung erfolgt analog zur Vorgehensweise beim Basis-VOFI. Nun ist der Kooperations-VOFI auf Planwerten der gemeinsamen Geschäftstätigkeit zu bilden. Dazu sind zwei Teilschritte vorzunehmen: a) Basierend auf verschiedenen Varianten der Kooperationsausgestaltung sind Geschäftsmodelle auszuwählen. Begleitend ist im Rahmen der Vertragsgestaltung ein Verrechnungsmodell auszuarbeiten, das den zu erwartenden zusätzlichen Endwert aufteilt. b) Finanzierungs- und Anlageoptionen werden durch die Kooperationspartner beigesteuert. Die Schritte zur Aufstellung eines Plan-Kooperations-VOFIs werden typischerweise in einem iterativen Prozess vorgenommen, weil wechselseitige Abhängigkeiten bestehen. Es können mehrere VOFIs (alternative VOFI-IDs) zu einem Beleg (hier: Vertrag) erstellt werden. Dies ermöglicht es, alternative Varianten im Rahmen der Kooperationsbildung zu prüfen. Es bietet sich an, zunächst auf Basis der Summen-VOFIs erste Verrechnungspreise anzunehmen, die originären 414 Zahlungsfolgen aufzustellen und diese Schrittweise zu verfeinern. Für diese Zahlungsfolgen sind Finanzierungs- und Anlageoptionen zu prüfen (s. u.) und Verrechnungspreise sukzessive anzupassen. Abschließend wird für den zu erwartenden Endwert eine Verteilungsformel präzisiert, die die zuvor erfolgte Verrechnung mit Verrechnungspreisen korrigieren kann. Wir unterstellen einen Start in den Verhandlungszyklus mit initialen Verrechnungspreisen, die als eine Startlösung gewählt wurden und alternativ ausgestalteten Kooperationsmodellen, die durch verschiedene Kooperations-VOFIs repräsentiert werden. Für jede Alternative ist bereits ein Kooperations-VOFI erstellt worden für den Verrechnungspreise unter Annahme zu erwartender Kooperationssynergien als eine Startlösung gewählt wurden. 3.2.2 Finanzierungs- und Anlageoptionen Jeder Partner kann Finanzierungs- und Anlageoptionen zur Finanzierung der Geschäftstätigkeit beisteuern. Diese können aus eigenen Mitteln gewährt werden oder fremdbezogen sein. Die Funktion addCreditOpportunity() erfasst Finanzierungsoptionen (vgl. Abbildung 4). Sie sind bestimmt durch ihre Laufzeit (CreditDuration), mögliche Laufzeitbeginne ([PossStartPeriods]), Höchstvolumen (CreditCeiling), Nominalzinsfuß (CreditInterrestRate), Fälligkeit der Zinsen (InterestsInAdvance), Tilgungsmodell (CreditAmortization) und ggf. (Dis-) Agio [4]. Analog können mithilfe der Funktion addInvestmentOpportunity()Anlageoptionen hinterlegt werden. Die periodenspezifisch in Anspruch genommenen Kredit- und Anlagevarianten werden als Array durch die Funktion buildInvestmentFlows() als Ergebnis eines Simultanen Planungsmodells (vgl. Kap. 2) zurückgegeben. Abbildung 4: Finanzierungs- und Anlage-Funktionen des VOFI-Service 415 3.3.3 Vertragsgestaltung Entsprechend der in Kap. 2 genannten Anforderungen an die Verteilung geschaffener Werte ist im Zuge der Vertragsgestaltung ein System für die Gewinn- und Verlustverteilung zu erarbeiten und im System zu hinterlegen. Im Rahmen dieses Beitrags wird eine mögliche Realisierung einer solchen Verteilung vorgestellt, die ein zweistufiges Verrechnungsverfahren anwendet: 1. mittels interner Verrechnungspreise (InternalPrice) zu eingehenden Kundenzahlungen und 2. mittels eines Verrechnungsmodells (RewardFunction), das Anreizfunktionen abbilden kann und das als Planungsinstrument die Vertragsverhandlung unterstützt. Unterperiodisch werden eingehende Kundenzahlungen durch interne Verrechnungspreise (1.) zwischen den Partnern abgerechnet (vgl. Abbildung 5). Die Verrechnungspreise werden basierend auf den Planmengen und dem Endwert des Plan-Kooperations-VOFIs für einzelne Positionen der angebotenen Leistungsbündel pro Leistungseinheit ausgehandelt. Erst im Rahmen des Kontrollprozesses wird die abschließende Verrechnung (2.) vorgenommen. Dazu müssen während der Verhandlungsphase Verteilungsformeln zwischen den Partnern ausgehandelt werden, die neben anderem auch ein Kooperationsziel-konformes Verhalten der Partner sicherstellen können. Die Funktionsweise wird hier beispielhaft anhand eines so genannten Profit-Sharing-Modells illustriert. Die Darstellung lehnt sich an SCHULTZ [10] an und wurde für das Verrechnungsschema hybrider Wertschöpfung mittels VOFIs erweitert und angepasst. Das klassische Profit-Sharing-Anreizmodell folgt der Form: m ns ~ [1] Li (e1 ,..., em ) = Li + δ i ∑∑ e s , j (c s*, j ) ∀i = 1,..., m s =1 j =1 ei,j (c*i,j) repräsentieren die Ist-Ergebnisse der Investition j in den einzelnen Investmentcentern i in Abhängigkeit von den in den selbständigen Einheiten allokierten finanziellen Mitteln c*i,j. Hier wird ein funktionaler Zusammenhang unterstellt. Anhand der partnerspezifischen ~ Entlohnungskoeffizienten δi werden diese einem fixen Entlohnungsanteil L zugeschlagen. In der Produzenten-Dienstleister-Kooperation fällt eine derartige Darstellung der Ist-Ergebnisse in Abhängigkeit von eingebrachten Ressourcen schwer, weil unmittelbare Wirkungszusammenhänge nicht direkt expliziert werden können und so eine direkte Zuordnung des Kooperationserfolgs zu den Beiträgen der Partner nicht möglich ist. Daher wird das Modell dahingehend abgewandelt, dass die Verteilungsfunktion den Partnern einen durch δi angegebenen Anteil an der durch die Verrechnungspreise ermittelten Verteilung garantiert. Das ermuntert diese, möglichst stark unmittelbar zum Erfolg der Kooperation beizutragen. Der nicht ausgeschöpfte Betrag (resp. der verzeichnete Verlust) wird anschließend en Bloc auf die Partner (z. B. zu gleichen Teilen) verteilt, um opportunistisches Verhalten nicht allzu stark zu fördern. Jeder Partner „leidet“ also mit, wenn das Netzwerk als ganzes schlecht wirtschaftet. Es ergibt sich das abweichende Modell [2] Li (e1 ,..., em ) = RVi + δ i eiverr ,j mit m ∑δ i =1 ≤1 i Die eiverr , j können für eine abzurechnende Periode mithilfe der Summe der nach (1.) intern verrechneten Leistungen ermittelt werden. RVi repräsentiert dabei den verbleibenden Endwert nach Verteilung. Er ergibt sich als Differenz aus den eiverr , j für eine eingebrachte Investition j und dem Endwert des zugehörigen Ist-Kooperations-VOFI, der im Rahmen der Durchführung nun aufzustellen ist. 416 Abbildung 5: Funktionen der Vertragsgestaltung 3.2 Durchführung der Verrechnung Die Durchführung ist die operative Umsetzung des im Rahmen der Planung gestalteten Modells. Während der Auftragsabwicklung der Produzenten-Dienstleister-Kooperation können mithilfe der Funktion recordIncomingPaymentsAsIs()eingehende Kundenzahlungen erfasst werden. Zahlungen können durch alle beteiligten Partner entgegengenommen werden. Eine Zuordnung erfolgt über die PartnerID. Zahlungen werden stets für Positionen zugrundeliegender Dokumente (hier: Rechnung, ReceiptID) erfasst. Die Verrechnung an die Partner erfolgt über die hinterlegten und ausgehandelten Verrechnungspreise (‚getInternalPrice()‘). Durch die Zahlungserfassung wird zugleich eine zweite Sicht für den Kooperations-VOFI mit Ist-Daten gepflegt. Als Referenz wird dazu die VOFI-ID des Plan-Kooperations-VOFIs übergeben. Die sukzessiv fortgeschriebenen IstWerte stehen nun in der Kontrolle der Verrechnung zur Verfügung. Es resultieren Informationsobjekte, die spiegelbildlich zu den in der Planungsphase bezeichneten sind in dem Sinne, dass nun Ist-Daten anstelle von Plan-Daten abgebildet sind. Diese betreffen die realen Zahlungen, die eingebrachten Ressourcen und die Zahlungsströme der unterperiodischen und periodischen Verrechnung. 3.3 Kontrolle der Verrechnung Auf den mithilfe des Ist-Kooperations-VOFIs ermittelten Endwerts ist nun die in der Vertragsgestaltung ausgehandelte Verrechnungsfunktion zur Nachverteilung des erzielten Ergebnisses anzuwenden. Daraufhin sind entsprechende Verrechnungsbuchungssätze zwischen den Partnern zu generieren und die Zahlungen an die operativen Systeme der Partner zu übermitteln. Auf Basis der Werte können nun Plan-Ist-Vergleiche (Delta-Kooperations-VOFI) von Zahlungsfolgen und resultierenden Endwerten und zahlreiche weitere aus der Investitionsrechnung bekannte Kennzahlen abgeleitet werden. Es müssen also folglich alle in Planung und Durchführung beschriebenen Informationsobjekte im Rahmen der Kontrolle bereitgestellt werden. Neben der Verfügbarmachung dieser Daten für das Controlling, können verdichtete Kennzahlen [3] generiert werden, die in Kontrollberichten zusammengefasst und an das Controlling übermittelt werden. 4. Ausblick Der Beitrag zeigt auf, welche Informationen produzierende und dienstleistende Einheiten eines hybriden Wertschöpfungsnetzwerkes innerhalb einer Kooperation beisteuern müssen, um eine 417 gemeinsame Verrechnung zu ermöglichen und welche Webservicespezifikationen geeignet sind, diese Informationen bereitzustellen. Bestehende betriebliche Informationssysteme können anhand dieser Informationsflüsse daraufhin untersucht werden, inwiefern sie geeignet sind, die flexible Kooperation von Produzenten und Dienstleistern zu unterstützen und wo funktionale Lücken bei ERP-Systemherstellen herrschen. Entwicklungsperspektiven eröffnen sich für die Systemhersteller einerseits durch die Integration von datenbereitstellenden Services, die die Informationsflüsse zwischen den Anwendungssystemen von Produktion und Dienstleistung unterstützen. Damit verschiedene Systeme bei Produzent und Hersteller die dargestellten Informationsflüsse bedienen können, bedarf es der Etablierung von herstellerübergreifenden Standards, die derzeit noch nicht existieren. Diese Standards müssen geeignete Nachrichtenstrukturen definieren, in denen die beschrieben Informationen ausgetauscht werden. Die hier beschriebenen Informationsflüsse zur Unterstützung des Verrechnungsprozesses sollen in ein solches Standardisierungsprojekt übernommen werden. Neben dem Austausch von Daten besteht weiteres Entwicklungspotentiale durch die Implementierung zusätzlicher betriebswirtschaftlicher Funktionen und Prozesse, die die Koordination der Kooperation unterstützen. Solche Perspektiven wurden für die Finanzierungs- und Anlageoptimierung und im Rahmen der Gewinnverteilung aufgezeigt. Diese funktionalen Webservices sind derzeit Gegenstand eines prototypischen Implementierungsprojektes. Danksagung. Dieser Beitrag entstand im Rahmen des Forschungsprojektes FlexNet (Flexible Informationssystemarchitekturen für hybride Wertschöpfungsnetzwerke), das durch das BMBF unter dem Kennzeichen 01FD0629 gefördert wird. Wir danken auch dem Projektträger Deutsches Zentrum für Luft- und Raumfahrt für seine Unterstützung. http://www.flexnet.uni-muenster.de. 5. Literaturhinweise [1] BEVERUNGEN, D., KAISER, U., KNACKSTEDT, R., KRINGS, R., STEIN, A., Konfigurative Prozessmodellierung der hybriden Leistungserstellung in Unternehmensnetzwerken, in: Proceedings of the Multikonferenz Wirtschaftsinformatik, München, 2008. [2] CORSTEN, D., GABRIEL, C.: Supply Chain Management erfolgreich umsetzen: Grundlagen, Realisierung und Fallstudien. Springer, Berlin, 2004. [3] DEWANTO, B. L., Anwendungsentwicklung mit Model Driven Architecture. Logos, Berlin, 2005. [4] GROB, H. L., Einführung in die Investitionsrechnung, Vahlen, München, 2006. [5] GIZANIS, D., Kooperative Auftragsabwicklung. Dissertation. Universität St. Gallen, 2006. [6] HOLTEN, R., Schultz, M. B., Integriertes Controlling für Aufbau, Betrieb und Anpassung von Supply Chains, in: Wirtschaftsinformatik, 43( 6), 2001, S. 579-588. [7] MEIER, H., KORTMANN, D., KRUG, C., Von der Technolgoie- zur Nutzenführerschaft, in: ZWF – Zeitschrift für wirtschaftlichen Fabrikbetrieb, 7/8, 2006, S. 431-434. [8] NIPPA, M., Geschäftserfolg produktbegleitender Dienstleistungen durch ganzheitliche Gestaltung und Implementierung, in: Management produktbegleitender Dienstleistungen. Physica, Berlin, 2005, S. 1-18. [9] OTTO, A., Auftragsabwicklung, in: Klaus, P., Krieger, W. (Hrsg.), Gabler Lexikon Logistik. Gabler, Wiesbaden, 2004, S. 14-20. [10] SCHULTZ, M. B., Anreizorientiertes Investitionscontrolling mit vollst. Finanzplänen, Logos, Berlin, 2005. [11] VARGO, S. L., LUSCH, R. F., Service-Dominant Logic: Continuing the Evolution, in: Journal of the Academy of Marketing Science, 36(1), 2008, S. 1-10. 418 SCIENCE OF SERVICES / WISSENSCHAFTSTHEORIE Die Zielsetzung, neben einer artefaktzentrierten, d. h. primär gestaltungs-, technologieorientierten Forschung auch Beiträge zum theoretischen Fundament der Wirtschaftsinformatik (WI) zu liefern oder sich mit der Wissenschaftsdisziplin Wirtschaftsinformatik selbst zu befassen, ist in der WI gewissen Zyklen unterworfen. Jedoch ist seit einiger Zeit ein erfreulich positiver Trend erkennbar, dass sich diese Zyklen verkürzen. Entsprechend möchte auch die WI 2009 diesem Trend folgen. Leitungsgremium: Werner Esswein, Technische Universität Dresden (Federführender) Klaus Tochtermann, Technische Universität Graz Stephan Zelewski, Universität Duisburg-Essen Programmkomitee: Robert Braun, Daimler AG Andreas Dietzsch, PostFinance Schweiz Steffen Greiffenberg, semture GmbH Sabine Zumpe, Business School der University of Queensland (Brisbane, Australien) DOKUMENTATION UND FORTSCHRITTSBESTIMMUNG VON METHODEN ZUR GESTALTUNG SOZIOTECHNISCHER SYSTEME AM BEISPIEL EINER METHODE ZUM SERVICE ENGINEERING Stephan Aier, Christian Fischer1 Kurzfassung Methoden zur Gestaltung soziotechnischer Systeme sind zentrale Forschungsergebnisse der Wirtschaftsinformatik. Dieser Beitrag greift eine Idee von FRANK [12] auf, indem er einen Dokumentationsrahmen für Methoden aus der Wirtschaftsinformatik konstruiert und ein darauf aufbauendes Fortschrittskonzept skizziert. Der Dokumentationsrahmen orientiert sich an Anforderungen von Praktikern, indem er die Wahrnehmungsfunktion des aktuellen Wissenschaftskommunikationssystems verbessert; die auf dem Dokumentationsrahmen aufbauenden Kriterien zur Fortschrittsmessung von Methoden orientieren sich an Anforderungen von Wissenschaftlern. Eine Demonstration der Anwendbarkeit des Dokumentationsrahmens und des Fortschrittkonzepts verdeutlicht einerseits die Potenziale des Dokumentationsrahmens zur Verbesserung des aktuellen Wissenschaftskommunikationssystems, deckt aber auch weiteren Forschungsbedarf zur Bestimmung der Fortschrittlichkeit von Methoden auf. 1. Einleitung Methoden zur Gestaltung soziotechnischer Systeme sind zentrale Ergebnisse gestaltungsorientierter Forschung in der Wirtschaftsinformatik (WI) [4]. In den letzten Jahrzehnten wurde eine hohe Zahl solcher Methoden entwickelt; durch die Entwicklung verschiedener Methodenvarianten im Rahmen der situativen Methodenkonstruktion verstärkt sich dieses Problem noch einmal [10]. Diese Methoden wurden allerdings zumeist in einer Form dokumentiert, die einen direkten Vergleich der Methoden untereinander kaum ermöglicht: Häufig sind zwei Methoden, die verglichen werden sollen, nur in Textform dokumentiert und unterschiedlich strukturiert. Selbst wenn zwei Methoden in einer semiformalen Notation dokumentiert sind, unterscheiden sich beide Notationen oftmals derart stark voneinander, dass ein direkter Vergleich wiederum nur mit hohem Aufwand möglich ist. Durch die unstrukturierte Dokumentation der Methoden fällt es Praktikern schwer, eine Methode zu finden, die eine Lösung für ein konkretes Problem bereitstellt. Die mangelnde Vergleichbarkeit der Methoden erschwert es Wissenschaftlern aufzuzeigen, inwieweit eine neue Methode im Vergleich zu vorhandenen Methoden wissenschaftlichen Fortschritt darstellt. Als Lösung für diese beiden Probleme schlägt dieser Beitrag eine strukturierte Form der Methodendokumentation vor. Bereits FRANK [12] führt diese Probleme an und schlägt einen Dokumentationsrahmen für alle Forschungsergebnisse der WI und ihrer angelsächsischen Schwesterdisziplin Information Systems (IS) 1 Universität St. Gallen, Müller-Friedberg-Strasse 8, CH-9000 St. Gallen 421 vor. Durch den allumfassenden Ansatz bleibt der Dokumentationsrahmen jedoch allgemein. Der hier entwickelte Dokumentationsrahmen geht hingegen auf die Charakteristika einer Methode ein und erlaubt es daher, nicht nur Metainformationen zu der Methode, sondern auch ihren inhaltlichen Kern zu dokumentieren. Der Artikel ist wie folgt aufgebaut: Zunächst werden der Methodenbegriff, Konzepte wissenschaftlichen Fortschritts und Aspekte der Dokumentation von Forschungsergebnissen aufgearbeitet. Auf diesen Grundlagen basierend, entwickeln wir einen Dokumentationsrahmen für Methoden der WI und ein Konzept zur Bestimmung des Fortschritts solcher Methoden. Der Dokumentationsrahmen wird exemplarisch für eine Methode zur Servicespezifikation in einer Serviceorientierten Architektur (SOA) instanziiert. Außerdem wird das in dem Beitrag entwickelte Fortschrittskonzept angewendet. Der Beitrag schließt mit einer Bewertung des Dokumentationsrahmens und des Fortschrittskonzeptes und zeigt weiteren Forschungsbedarf auf. 2. Grundlagen Im Folgenden werden als Grundlage zuerst die Begriffe der Methode sowie des wissenschaftlichen Fortschritts analysiert, um anschließend den State-of-the-Art zur Dokumentation von Forschungsergebnissen nachzuvollziehen. 2.1. Methode Im Kontext der WI kann eine Methode definiert werden als die systematische Anleitung zur Durchführung von Aktivitäten, um ein Work Systems [1, 2] von einem initialen Zustand (SA) in einen definierten Zielzustand (SZ) zu transformieren [7, 9]. Weiterhin definiert eine Methode Rollen, welche die Aktivitäten ausführen und Techniken2, welche die Ergebniserstellung unterstützen [13, 18]. Abbildung 1: Metamodell situativer Methoden [9, 13] Für die effektive und effiziente Anwendung einer Methode ist es sinnvoll, den jeweiligen Projekttyp und die jeweiligen Kontextfaktoren für die Methodenausführung zu berücksichtigen und die Methode entsprechend zu adaptierten. Solche Ansätze werden unter dem Begriff des situativen Methodenengineerings diskutiert [9, 15, 20, 31]. Für die Beschreibung einer Situation unterschei2 „Techniken sind Anleitungen, wie ein Entwurfsergebnis oder eine Gruppe logisch zusammengehöriger Entwurfsergebnisse erzeugt werden. Während das Vorgehensmodell […] das Vorgehen im Grossen beschreibt, also festlegt, wann welche Entwurfsergebnisse erzeugt werden, beschreiben Techniken das Vorgehen im Kleinen, d. h. wie Ergebnisse produziert werden. Als Beispiele für Techniken können genannt werden: Konzeptionelle Datenmodellierung, Datenflussmodellierung, Entity-Life-History-Analyse, Dialogspezifikation, Stellenbildung.“ [13, S. 14] 422 den BUCHER ET AL. [9] sogenannte Projekttypen und Kontexttypen. Ein Projekttyp ist definiert als ein Tupel (SA, SZ) eines Work Systems WSS und beschreibt den Bereich des Systems, der durch die Methodenanwendung verändert wird. Beispiele für unterschiedliche Projekttypen aus dem Bereich Reorganisationsmaßnahmen sind eine Reorganisationsmaßnahme zur Einführung von Standardsoftware oder eine Reorganisationsmaßnahme zur Verbesserung der Kundenfreundlichkeit. BUCHER ET AL. weisen darauf hin, dass nicht nur Projekttypen die effektive und effiziente Anwendung einer Methode wesentlich beeinflussen, sondern auch nicht beeinflussbare Kontingenzfaktoren zu berücksichtigen sind, wie z. B. die Größe eines Unternehmens oder seine Branche. Beispiele für Methoden, welche Kontingenzfaktoren berücksichtigen, liefern YLIMÄKI/HALTTUNEN [32] sowie FITZGERALD ET AL. [11]. Das umgebende Work System WSK wird im Folgenden Kontexttyp genannt. Die spezifische Kombination von Projekttypen und Kontexttypen wird als Situation bezeichnet. Abbildung 1 visualisiert das Metamodell einer Methode. 2.2. Konzepte wissenschaftlichen Fortschritts Wissenschaftlichkeit und Fortschritt hängen eng miteinander zusammen; für KUHN [19] ist der Fortschritt sogar ein Kriterium, um Wissenschaften von anderen Gebieten abzugrenzen, z. B. von der Kunst. Daher verwundert es nicht, dass das Verständnis von Fortschritt in der Wissenschaftstheorie so breit diskutiert wird, dass es in diesem Beitrag unmöglich ist, den Diskurs auch nur ansatzweise nachzuzeichnen. Daher beschränken wir uns auf eine kurze Begriffserläuterung und legen uns dann auf ein geeignetes Fortschrittsverständnis fest. Im Unterschied zu ähnlichen Begriffen wie Entwicklung oder Veränderung ist der Fortschrittsbegriff normativ. Unstrittig ist, dass der Übergang von einem Stadium a zu einem Stadium b dann als Fortschritt bezeichnet wird, wenn b besser ist als a [23]. Gegenstand des Diskurses ist allerdings, was ein besseres Stadium in Bezug auf Theorien ist. Ein erstes Differenzierungskriterium für wissenschaftlichen Fortschritt von Theorien (T1) bezieht sich auf das, was Theorien aussagen: Für wissenschaftliche Realisten ist eine Theorie umso besser, je stärker sie sich der Wahrheit annähert, für wissenschaftliche Instrumentalisten, je besser sie Beobachtungen erklären und vorhersagen kann [24]. Ein zweites Kriterium (T2) bezieht sich auf das, worüber Theorien etwas aussagen, also ihre Anwendungsbreite. Bereits HEMPEL [16] erörtert den Begriff der Mächtigkeit einer Theorie und maß sie an dem Ausmaß der Konsequenzen für Aussagen in der Beobachtungssprache3. Ein drittes Kriterium (T3) bezieht sich auf die Bewährtheit einer Theorie. Bewährtheit von Theorien kann für wissenschaftliche Realisten ein Maß für die Wahrheitsadäquanz einer Theorie sein und würde somit unter das erste Kriterium fallen. Für wissenschaftliche Instrumentalisten hingegen gibt die Bewährtheit einer Theorie eher Auskunft über die Zuverlässigkeit eines Erklärungs- oder Vorhersageinstruments. POPPER [27] beispielsweise, Vertreter des kritischen Rationalismus, bestreitet, Bewährtheit sei ein Maß für das „Fürwahrhalten“ einer Theorie, und hält Bewährtheit für ein eigenständiges Qualitätskriterium einer Theorie. Nr. T1 T2 T3 Tabelle 1: Fortschrittskriterien für Theorien Bezeichnung Kriterien nach Zelewski [33] Wahrheitsadäquanz/Erklärungskraft Präzision (Z1a) Mächtigkeit Anwendungsbreite (Z1b) Bewährtheit empirische Bewährung (Z2) ZELEWSKI [33] entwickelt ein Fortschrittskonzept, mit dem der Fortschritt von Theorien, die nach dem Theorienkonzept des wissenschaftlichen Strukturalismus rekonstruiert wurden, formal bestimmt werden kann. Für ihn sind Merkmale für Fortschritt ein größerer empirischer Gehalt von 3 Der logische Empirismus, eine wissenschaftstheoretische Schule, zu der u. a. CARL GUSTAV HEMPEL zählt, unterscheidet zwischen Sätzen, die ausschließlich Beobachtungen beschreiben und in einer Beobachtungssprache formuliert werden, und solchen Sätzen, die von einer Theorie abhängig sind, also theoretische Entitäten oder deren Beziehungen zueinander oder zu Beobachtungen beschreiben. 423 Theorien (Z1), also eine größere Anwendungsbreite (Z1a) und eine höhere Präzision (Z1b), und eine größere empirische Bewährung (Z2). Das hier vertretene Fortschrittsverständnis ist zu dem von ZELEWSKI kompatibel; die Kriterien und ihr Zusammenhang zu den Kriterien von ZELEWSKI sind in Tabelle 1 zusammengefasst. 2.3. Kommunikation und Dokumentation von Forschungsergebnissen Gegenstand wissenschaftstheoretischer Diskussionen in WI und IS sind meist epistemologische Fragen oder Fragen zur Abgrenzung des Forschungsgegenstandes. Fragen der Präsentation und Dokumentation von Forschungsergebnissen sind in WI und IS bislang kaum im Fokus des wissenschaftlichen Diskurses gewesen, obwohl Benbasat und Zmud bereits 1999 [5] feststellten, dass Forschungsergebnisse in IS in einer Form präsentiert würden, die für Praktiker wenig ansprechend sei. Dies sei eine Ursache für die geringe Aufmerksamkeit, die IS-Forschungsergebnisse bei Praktikern genössen. Häufig wird die Präsentation und Dokumentation von Forschungsergebnissen nicht einmal als ein Bestandteil des Forschungsprozesses angesehen: PEFFERS ET AL. [26] analysieren sieben Publikationen über Forschungsmethoden im Design Research (DR), um einen DRReferenzforschungsprozess zu konstruieren. Nur zwei der untersuchten Arbeiten berücksichtigen dabei die Kommunikation des konstruierten Artefaktes [3, 17]. Ein Wissenschaftskommunikationssystem soll vier Funktionen erfüllen [22, 28, 29, 34]: Die Forschungsinhalte sollen zertifiziert sein, z. B. durch ein Peer-Review-Verfahren (Zertifizierungsfunktion); sie sollen eindeutig einem Urheber zugeordnet werde können (Registrierungsfunktion); sie sollen dauerhaft aufbewahrt werden können (Archivierungsfunktion) und die relevanten Inhalte sollen von Lesern wahrgenommen werden können (Wahrnehmungsfunktion). Der hier vorgeschlagene Dokumentationsrahmen bezieht sich hauptsächlich auf die Wahrnehmungsfunktion: Leser sollen für sie relevante und für sie irrelevante Methoden schnell voneinander unterscheiden und rasch den relevanten Inhalt einer Methode sowie relevante Metainformationen (z. B. Einsatzbereich der Methode, Ziel der Methodenanwendung, Bewährtheit der Methode, etc.) erfassen können. Die Wahrnehmungsfunktion wird umso besser erfüllt, je besser der Abgleich zwischen dem Wissensbedarf des Rezipienten und dem Wissensangebot funktioniert [14]. Um diesen Abgleich zu fördern, sind neben Basisdiensten (z. B. Erstellung von Metainformationen, Vorhandensein von digitalen Volltexten) und Push-Mechanismen (z. B. die regelmäßige Distribution von Zeitschriften, Newslettern usw.) auch Pull-Mechanismen hilfreich. Pull-Mechanismen sind beispielsweise Bibliothekskataloge oder Suchmaschinen [14]. FRANK [12] setzt zur Verbesserung des Wissenschaftskommunikationssystems bei den PullMechanismen an und schlägt einen Dokumentationsrahmen für alle Arten von Forschungsergebnissen in WI und IS vor, der in Abhängigkeit von der Forschungsmethode konfiguriert werden kann. Da Methoden der WI als ein DR-Artefakt angesehen werden können, sei hier kurz der Dokumentationsrahmen dargestellt, den FRANK für DR vorschlägt. In dem Dokumentationsrahmen berücksichtigt FRANK, dass ein DR-Artefakt eine Abstraktion von einer Absicht eines Forschers ist, dass es sich auf ein soziotechnisches System bezieht und dass es in einer bestimmten Sprache notiert ist. Jedes DR-Artefakt rechtfertigt sich von seinem Zweck her. Die Rechtfertigung eines bestimmten DR-Artefaktes weist die Adäquatheit des Artefakts in Bezug auf den Zweck nach. Es gibt verschiedene Methoden, die Adäquatheit eines Artefaktes zu bestimmen: Ein Prototyp zeigt die Umsetzbarkeit eines Artefaktes. Durch einen formalen Beweis kann die formale Korrektheit eines Artefaktes nachgewiesen werden. In Fallstudien kann belegt werden, dass das Artefakt den postulierten Zweck erfüllt. Weitere Methoden, die Adäquatheit eines Artefaktes zu rechtfertigen, unterscheidet FRANK nach dem ihnen zugrundeliegenden Wahrheitskonzept: Die Korrespondenztheorie der Wahrheit definiert eine Aussage a als wahr genau dann, wenn a. Verfahren zur Überprüfung einer Aussage nach diesem Wahrheitskonzept sind z. B. Feldstudien oder Experimente. Die Kohärenztheorie der Wahrheit nimmt an, dass eine Aussage wahr ist, wenn sie sich widerspruchsfrei in ein bestehendes Wissenskonzept einordnen lässt. Eine geeignete Überprüfungsmethode nach diesem Kriterium ist 424 die Literaturanalyse. Nach der Konsenstheorie der Wahrheit kann eine Aussage als wahr angesehen werden, wenn eine Gruppe von Experten darüber einstimmt, dass die Aussage wahr ist. Für eine Überprüfung nach diesem Kriterium schlägt FRANK in Anlehnung an HABERMAS den virtuellen Diskurs vor. 3. Dokumentation von Methoden und Messung von Fortschritt 3.1. Entwicklung eines Dokumentationsrahmens Der in dieser Arbeit vorgeschlagene Dokumentationsrahmen ist in Abbildung 2 dargestellt. In seinem Zentrum steht die Methode, die einen bestimmten Zweck erfüllt. Abbildung 2: Dokumentationsrahmen für eine soziotechnische Methode [9, 12, 13] Um einen Überblick über die Inhalte der Methode zu geben, werden die wichtigsten Elemente aus dem nicht-situativen Metamodell von GUTZWILER [13] abgebildet: eine Aktivitätenfolge und für jede Aktivität die daran beteiligten Rollen und eingesetzten Techniken. Auf eine Darstellung des Ergebnisses einer Aktivität in Form eines Informationsmodells sowie auf situationsspezifische Konfigurationsmöglichkeiten einzelner Aktivitäten soll verzichtet werden, um die Komplexität der Dokumentation zu reduzieren, So wird die Anforderung eines Praktikers erfüllt, sich rasch einen Überblick über eine Methode verschaffen zu können. Um einen Überblick über den Einsatzbereich einer Methode zu gewinnen, werden die verschiedenen Situationen einer Methode dokumentiert. Die Situation besteht dabei analog zu dem Verständnis von BUCHER ET AL. [9] aus einer Kombination aus einem Kontext- und einem Projekttypen. Durch die Dokumentation der verschiedenen Situationen wird einerseits die Anforderung von Praktikern erfüllt, rasch entscheiden zu können, ob eine spezifische Methode zur Lösung ihres konkreten Problems geeignet ist. Weiterhin erlaubt die Dokumentation der Situationen, den Fortschritt einer Methode im Vergleich zu einer anderen in Bezug auf ihren Anwendungsbereich zu überprüfen (Kriterium T2). Außerdem wird die Evaluation der Methode als Ganzes sowie die Rechtfertigung einzelner Kriterien während ihrer Konstruktion in Anlehnung an FRANK [12] dokumentiert. Eine Rechtfertigungsgrundlage rechtfertigt eine durchzuführende Aktivität. Eine Rechtfertigungsgrundlage ist aber auch Bestandteil der Evaluation einer Methode als Ganzes. Rechtfertigungsgrundlagen können andere Artefakte, Theorien oder Hypothesen sein. Für jede dieser Rechtfertigungsgrundlagen gibt es wie425 derum verschiedene Belege. Belege für Hypothesen weisen ihre Wahrheit nach, Belege für Theorien ihre Präzision, Belege für Artefakte ihre Nützlichkeit. Es lassen sich korrespondenztheoretische, konsenstheoretische und kohärenztheoretische Wahrheitsbelege voneinander unterscheiden (vgl. hierzu auch Abschnitt 2.2 in Anlehnung an FRANK [12]). 3.2. Kriterien für den Fortschritt von Methoden Der entwickelte Dokumentationsrahmen soll u. a. dazu dienen, den Fortschritt einer Methode im Vergleich zu einer anderen zu messen. Das in Abschnitt 2.2 aus der Wissenschaftstheorie vorgestellte Fortschrittskonzept bezieht sich allerdings auf Theorien, nicht auf Methoden. Methoden und Theorien unterscheiden sich jedoch fundamental voneinander: Für wissenschaftliche Realisten ist die Wahrheit von Theorien bedeutsam, insbesondere auch in Bezug auf nicht-beobachtbare Entitäten, die Bestandteil einer Theorie sind. Wissenschaftliche Instrumentalisten stellen nicht die Wahrheit von Theorien in den Vordergrund, sondern ihre Erklärungs- und Vorhersagefunktion. Methoden hingegen streben weder danach, die Realität wahrheitsadäquat zu beschreiben, noch verfolgen sie Erklärungs- oder Prognoseziele; Methoden sollen nützlich sein [21]. Daher müssen die drei Kriterien aus Tabelle 1 an die Besonderheiten von Methoden angepasst werden. Kriterium (T1) bezieht sich auf die Wahrheitsadäquanz bzw. Erklärungskraft von Theorien. Methoden hingegen verfolgen den Zweck, einen möglichst großen Nettonutzen4 zu stiften – oder anders formuliert: ein Problem effizient zu lösen. Es soll daher gelten: (M1) Ceteris paribus ist eine Methode a dann fortschrittlicher in Bezug auf eine Menge von Problemen P als eine Methode b, wenn a die Probleme aus P effizienter löst als b. Bez. Theorie Wahrheitsadäquanz/Erklärungskraft Mächtigkeit Bewährtheit Tabelle 2: Fortschrittskriterien für Methoden Bez. Methode Nr. Regel Ceteris paribus ist eine Methode a dann fortschrittlicher in Bezug auf Nützlichkeit M1 eine Menge von Problemen P als eine Methode b, wenn a die Probleme aus P effizienter löst als b. Ceteris paribus ist eine Methode a, die sich auf Projekte aus der Menge der Projekttypen PTa bezieht, dann fortschrittlicher als eine Methode b, M2a die sich auf Projekte der Projektmenge PTb bezieht, wenn PTb eine echte Teilmenge von PTa ist. Anwendungsbereich Ceteris paribus ist eine Methode a, die sich auf Kontexte der Kontextmenge Ka bezieht, dann fortschrittlicher als eine Methode b, die sich M2b auf Kontexte der Kontextmenge Kb bezieht, wenn Kb eine echte Teilmenge von Ka ist. Ceteris paribus ist eine Methode a ist dann fortschrittlicher als eine M3a Methode b, wenn a auf der Grundlage einer bewährteren Basis als b konstruiert wurde. Bewährtheit Ceteris paribus ist eine Methode a dann fortschrittlicher als eine MeM3b thode b, wenn a stärker evaluiert worden ist als b. Kriterium (T2) ist die Mächtigkeit von Theorien. Die Mächtigkeit einer Methode bezieht sich auf den Problembereich, das ist eine Menge von Situationen, in denen sie eingesetzt werden kann. Eine Situation ist definiert als eine Kombination aus einem Projekttypen und einem Kontexttypen [9]. Daher lassen sich zwei Regeln für den Methodenfortschritt definieren: (M2a) Ceteris paribus ist eine Methode a, die sich auf Projekte aus der Menge der Projekttypen PTa bezieht, dann fortschrittlicher als eine Methode b, die sich auf Projekte der Projektmenge PTb bezieht, wenn PTb eine echte Teilmenge von PTa ist. (M2b) Ceteris paribus ist eine Methode a, die sich auf Kontexte der Kontextmenge Ka bezieht, dann fortschrittlicher als eine Methode b, die sich auf Kontexte der Kontextmenge Kb bezieht, wenn Kb eine echte Teilmenge von Ka ist. 4 Der Nettonutzen einer Methodenanwendung ist die Differenz zwischen (Brutto-)Nutzen und Kosten einer Methodenanwendung. 426 Kriterium (T3) ist die Bewährtheit von Theorien. Die Bewährtheit von Methoden bezieht sich auf zwei Bereiche: erstens auf die Konstruktion der Methode, in deren Rahmen auch die Erkenntnisse der verhaltensorientierten Forschung einfließen [17], zweitens auf die Evaluation der Methode. Eine formale Fortschrittsregel für Methoden aufzustellen fällt allerdings schwer, da wegen der Vielfalt an epistemologischen Ansätzen in WI und IS eine rein quantitative Bewertung unmöglich ist [12]. Dazu müsste auch die Qualität eines epistemologischen Ansatzes berücksichtigt werden. Folgende zwei Kriterien lassen sich daher nur sehr unscharf formulieren: (M3a) Ceteris paribus ist eine Methode a dann fortschrittlicher als eine Methode b, wenn a auf der Grundlage einer bewährteren Basis als b konstruiert wurde. (M3b) Ceteris paribus ist eine Methode a dann fortschrittlicher als eine Methode b, wenn a stärker evaluiert worden ist als b. Die Fortschrittskriterien sind in Tabelle 2 zusammengefasst. 4. Exemplarische Anwendung 4.1. Instanziierung des Dokumentationsrahmens Um die Anwendbarkeit des Dokumentationsrahmens zu zeigen, wurde eine Methode von BEVERUNGEN ET AL. [6] zum Service-Design anhand dieses Dokumentationsrahmens instanziiert. Das Ergebnis findet sich in Abbildung 3. Abbildung 3: Instanziierung des Dokumentationsrahmens aus Abbildung 2 anhand einer Methode zur Servicespezifikation in einer SOA [6] Die beschriebene Methode erfüllt den Zweck, Services in einer SOA zu spezifizieren. Sie berücksichtigt das Konzept der Situativität nicht ausdrücklich. Allerdings lassen sich aus der Methodenbeschreibung zwei unterschiedliche Situationen rekonstruieren: In einem Projekttyp müssen die Geschäftsprozesse neu modelliert werden, weil sie nicht oder nicht in ausreichender Zahl vorhanden sind; in einem anderen Projekttyp sind Prozessmodelle des Unternehmens bereits vorhanden und müssen allenfalls angepasst werden. Anforderungen an den Anwendungsbereich der Methode werden nicht explizit formuliert. Daher nehmen wir an, dass sie sich in allen Unternehmen einsetzen lässt. Zur Evaluation der Methode wurde sie bei der Hellmann Process Management GmbH eingesetzt. Der Einsatz der Methode wurde in einer Fallstudie dokumentiert. Die Methode ist in drei Phasen gegliedert, die wir als Aktivitäten aufgeführt haben. Den Aktivitäten sind jeweils Techniken zugeordnet. Bei der Instanziierung des Dokumentationsrahmens ist aufgefallen, dass BEVERUNGEN ET AL. keine Rollen definieren. Daher haben wir sie nicht aufgeführt. Die einzelnen Aktivitäten und Techniken wurden ausschließlich durch Literatur belegt.5 5 In Abbildung 3 haben wir für jede Aktivität exemplarisch eine wichtige Quelle angeführt. 427 4.2. Fortschrittsbestimmung BEVERUNGEN ET AL. stellen in einer Literaturanalyse verschiedene Methoden zur Servicespezifikation vor. Exemplarisch haben wir die dort erwähnte Methode von PAPAZOGLOU/VAN DEN HEUVEL [25] ausgewählt, um anhand der Fortschrittskriterien aus Tabelle 2 zu prüfen, inwieweit die Methode von BEVERUNGEN ET AL. fortschrittlicher ist. Dazu gelte im Folgenden die Methode von BEVERUNGEN ET AL. als Methode a, die von PAPAZOGLOU/VAN DEN HEUVEL als Methode b. Kriterium (M1) bezieht sich auf den Nettonutzen der Methoden. Demnach ist eine Methode a dann fortschrittlicher in Bezug auf eine Menge von Problemen P als eine Methode b, wenn a die Probleme aus P effizienter löst als b. Die Anwendbarkeit des Fortschrittskriteriums setzt implizit voraus, dass a und b Lösungsvorschläge für zumindest teilweise dieselben Probleme anbieten. In unserem Beispiel enthält a Lösungsvorschläge für die Servicespezifikation, während b nicht nur Handlungsempfehlungen für die Servicespezifikation, sondern auch für die Serviceimplementierung gibt. Pa ist also eine echte Teilmenge von Pb, daher gilt: P = Pa. Nun wäre zu bestimmen, inwieweit a bei der Servicespezifikation einen höheren Nettonutzen stiftet als b. Allerdings machen weder BEVERUNGEN ET AL. noch PAPAZOGLOU/VAN DEN HEUVEL Angaben zu dem Nettonutzen ihrer Methode, die einen Vergleich der jeweiligen Methoden bzgl. ihres Nettonutzens erlauben würden. Daher lässt sich in dem vorliegenden Fall die Fortschrittlichkeit nach Kriterium (M1) nicht eindeutig feststellen. Kriterium (M2) ist der Anwendungsbereich der Methode. Kriterium (M2a) bezieht sich dabei auf die Projekttypen. Da die Menge der Projekttypen PTa der Methode a eine echte Teilmenge der Projekttypen PTb der Methode b ist, ist Methode b partiell fortschrittlicher als Methode a. Nach diesem Fortschrittskriterium wäre die neu entwickelte Methode von BEVERUNGEN ET AL. also ein Rückschritt im Vergleich zu der älteren von PAPAZOGLOU/VAN DEN HEUVEL. Kriterium (M2b) bezieht sich auf den Kontext. Da sich beide Methoden auf dieselben Kontexte, nämlich jeweils alle Unternehmen, beziehen, sind beide Methoden nach Kriterium (M2b) als gleich fortschrittlich einzustufen. Kriterium (M3) bezieht sich letztlich auf die empirische Bewährtheit der Methode, wobei (M3a) die Bewährtheit der einfließenden theoretischen Basis im Rahmen der Konstruktion betrifft, (M3b) die Bewährtheit der Methode durch die Evaluation. Die Bewährtheit nach (M3a) kann beurteilt werden, indem z. B. die Qualität der für jede Aktivität angegebenen Literaturquellen bewertet und miteinander verglichen wird. Dies ist allerdings mit der Schwierigkeit verbunden, geeignete Bewertungskriterien für die Qualität von Quellen aufzustellen. Daher wird an dieser Stelle auf die Anwendung von Kriterium (M3a) verzichtet. Kriterium (M3b) bezieht sich auf die Evaluation der Methoden. Beide Methoden werden in einer Fallstudie evaluiert. Ergebnis der Fallstudie ist jeweils, dass sich die Methode zur Lösung des jeweiligen Problems gut eignet. Beide Methoden können daher als ähnlich gut bewährt gelten. 5. Bewertung und Ausblick Der Beitrag schlägt ein Konzept zur Dokumentation von Methoden und zum Nachweis ihrer Fortschrittlichkeit vor. Die Instanziierung des Dokumentationsrahmens anhand des Beispiels hat gezeigt, dass der Dokumentationsrahmen dazu geeignet ist, Methoden zu beschreiben. Ein flexibler Umgang mit dem Dokumentationsrahmen kann allerdings notwendig sein: Die Methode von BEVERUNGEN ET AL. berücksichtigt bspw. keine Rollen, sodass sich die Entität „Rolle“ aus dem Dokumentationsrahmen nicht instanziieren lässt. Das Beispiel lässt erahnen, dass eine strukturierte Rekonstruktion und Dokumentation von Methoden einen Beitrag dazu leisten kann, Praktikern einen Überblick über vorhandene Methoden aus der WI zu geben und somit einen wertvollen Beitrag zur Verbesserung der Wahrnehmungsfunktion des derzeitigen Wissenschaftskommunikationssystems in WI und IS zu leisten. Um eine genauere Aussage über den Nettonutzen des vorgestellten 428 Dokumentationsrahmens machen zu können, muss allerdings eine größere Anzahl an Methoden rekonstruiert werden. Die Dokumentation muss dann durch potentielle Nutzer evaluiert werden. Weiterhin ist ein Anreizsystem zu schaffen, das Methodenkonstrukteure dazu veranlasst, ihre Methoden in dem Dokumentationsrahmen abzulegen. Ein erfolgreiches Beispiel für eine Wiki-basierte Dokumentation von bedeutenden Theorien in Information Systems ist ein von SCHNEBERGER und WADE entwickeltes Wiki [30]. Zur Verwaltung der Methodendokumentation ist eine Werkzeugunterstützung hilfreich. Ein solches Werkzeug kann eine flexible Modellierungssprache für Methoden implementieren, die auf dem Dokumentationsrahmen in Abbildung 2 basiert. Wie in Abschnitt 2.3 dargelegt wurde, können gute Suchfunktionen und die Bereitstellung eines digitalen Volltextes die Qualität eines solchen Systems steigern. Das Beispiel, anhand dessen das entwickelte Fortschrittskonzept demonstriert wurde, zeigt dreierlei: Erstens macht es plausibel, dass ein Wissenschaftskommunikationssystem nach dem hier entwickelten Dokumentationsrahmen hilfreich ist, um den Fortschritt von Methoden zu bestimmen. Zweitens kann gezeigt werden, dass sich das Konzept der Situativität auf eine Methode als Ganzes übertragen lässt, um einen partiellen Fortschritt der Methode in Bezug auf ihren Anwendungsbereich nachzuweisen (Fortschrittskriterien (M2a) und (M2b)). Drittens zeigt das Beispiel aber auch Schwächen auf: Insbesondere bzgl. der Nützlichkeit der Methode (Fortschrittskriterium (M1)) konnte keine befriedigende Aussage zum Vergleich beider Methoden gemacht werden. Ursache hierfür ist, dass der Nettonutzen der Methode in beiden Artikeln nicht quantifiziert worden ist. Dies ist aus theoretischer Perspektive insofern erstaunlich, als dass das Hauptziel einer Methode darin besteht, Nettonutzen zu stiften – und somit die Angabe von Kosten und Bruttonutzen Teil der Evaluation sein sollte. Allerdings mangelt es an Konzepten, einen quantifizierbaren Nettonutzen im Rahmen einer Fallstudie zu ermitteln. Weiterer Forschungsbedarf ergibt sich daher für die Nutzenmessung von DR-Artefakten (vgl. hierzu z. B. VOM BROCKE [8]). Alternativ kann ein Fortschrittskonzept entwickelt werden, das sich auf besser messbaren Kriterien als dem des Nettonutzens gründet. Weiterer Forschungsbedarf ergibt sich auch bei der Entwicklung von Konzepten zum Vergleich der Bewährtheit zweier Methoden. Weitere Anwendungsgebiete für eine Methodendokumentation nach dem hier vorgeschlagenen Dokumentationsrahmen sollen in künftiger Forschung evaluiert werden. 6. Literaturverzeichnis [1] ALTER, S.: 18 Reasons Why IT-reliant Work Systems Should Replace "The IT Artifact" as the Core Subject Matter of the IS Field, in: Communications of the Association for Information Systems, Vol. 12, 2003, pp. 366-395 [2] ALTER, S.: Work Systems and IT Artifacts - Does the Definition Matter?, in: Communications of the Association for Information Systems, Vol. 17, 2006, pp. 299-313 [3] ARCHER, L.B.: Systematic Method for Designers, in: Cross, N. (ed.): Developments in Design Methodology. John Wiley, London 1984 pp. 57-82 [4] BECKER, J., KNACKSTEDT, R., HOLTEN, R., HANSMANN, H., NEUMANN, S.: Konstruktion von Methodiken: Vorschläge für eine begriffliche Grundlegung und domänenspezifische Anwendungsbeispiele, in: Becker, J., Grob, H.L., Klein, S., Kuchen, H., Müller-Funk, U., Vossen, G. (eds.): Arbeitsberichte des Instituts für Wirtschaftsinformatik. Insitut für Wirtschaftsinformatik der Universität Münster, Münster 2001, [5] BENBASAT, I., ZMUD, R.W.: Empirical Research in Information Systems: The Practice of Relevance, in: MIS Quarterly, Vol. 23, 1999, pp. 3-16 [6] BEVERUNGEN, D., KNACKSTEDT, R., MÜLLER, O.: Entwicklung Serviceorientierter Architekturen zu Integration von Produktion und Dienstleistung - Eine Konzeptionsmethode und ihre Anwendung am Beispiel des Recyclings elektronischer Geräte, in: Wirtschaftsinformatik, Vol. 52, 2008, pp. 220-234 [7] BRINKKEMPER, S.: Method Engineering - Engineering of Information Systems Development Methods and Tools, in: Information and Software Technology, Vol. 38, 1996, pp. 275-280 [8] VOM BROCKE, J.: Entscheidungsorientierte Wirtschaftsinformatik – Entwicklung einer konstruktionsbegleitenden Kalkulation zur wirtschaftlichen Nutzung neuer Technologien, in: Bichler, M., Hess, T., Krcmar, H., Lechner, U., Matthes, F., Picot, A., Speitkamp, B., Wolf, P. (eds.): Multikonferenz Wirtschaftsinformatik 2008. GITO, München 2008, pp. 1551-1562 [9] BUCHER, T., KLESSE, M., KURPJUWEIT, S., WINTER, R.: Situational Method Engineering - On the Differentiation of "Context" and "Project Type", in: Ralyté, J., Brinkkemper, S., Henderson-Sellers, B. (eds.): Proceedings of 429 the IFIP WG8.1 Working Conference on Situational Method Engineering - Fundamentals and Experiences (ME07), Vol. 244. Springer, Boston 2007, pp. 33-48 [10] ESSWEIN, W., WELLER, J.: Method Modifications in a Configuration Management Environment, in: Österle, H., Schelp, J., Winter, R. (eds.): Proceedings of the 15th European Conference on Information Systems (ECIS2007), June 7-9 2007, St. Gallen, Switzerland. University of St. Gallen, St. Gallen 2007, pp. 2002-2013 [11] FITZGERALD, B., RUSSO, N.L., O'KANE, T.: Software development method tailoring at Motorola, in: Communications of the ACM, Vol. 46, 2003, pp. 64-70 [12] FRANK, U.: Towards a Pluralistic Conception of Research Methods in Information Systems Research, in: Adelsberger, H., Chamoni, P., Dorloff, F., Echtle, K., Eicker, S., Frank, U., Goedicke, M., Kollmann, T., MüllerClostermann, B., Pohl, K., Rathgeb, E.P., Unland, R., Zelewski, S. (eds.): ICB Research Report. Universität Duisburg Essen, Essen 2006, [13] GUTZWILER, T.: Das CC RIM-Referenzmodell für den Entwurf von betrieblichen, transaktionsorientierten Informationssystemen, Heidelberg 1994 [14] HAGENHOFF, S.: Zur Distribution wissenschaftlicher Inhalte, in: Schumann, M. (ed.): Arbeitsbericht. GeorgAugust-Universität Göttingen, Institut für Wirtschaftsinformatik, Göttingen 2007, [15] HARMSEN, A.F., BRINKKEMPER, S., OEI, H.: Situational Method Engineering for Information System Project Approaches, in: Verrijn-Stuart, A.A., Olle, T.W. (eds.): Proceedings of the IFIP 8.1 Working Conference on Methods and Associated Tools for the Information Systems Life Cycle. North-Holland, Amsterdam 1994, pp. 169-194 [16] HEMPEL, C.G.: Aspekte wissenschaftlicher Erklärung. de Gruyter, Berlin 1977 [17] HEVNER, A.R., MARCH, S.T., PARK, J., RAM, S.: Design Science in Information Systems Research, in: MIS Quarterly, Vol. 28, 2004, pp. 75-105 [18] HEYM, M.: Methoden-Engineering - Spezifikation und Integration von Entwicklungsmethoden für Informationssysteme. Rosch-Buch, Hallstadt 1993 [19] KUHN, T.S.: Die Struktur wissenschaftlicher Revolutionen. Suhrkamp, Frankfurt/Main 1981 [20] KUMAR, K., WELKE, R.J.: Methodology Engineering - A Proposal for Situation-specific Methodology Construction, in: Cotterman, W., Senn, J.A. (eds.): Challenges and Strategies for Research in Systems Development. John Wiley & Sons, New York 1992 pp. 257-269 [21] MARCH, S.T., SMITH, G.F.: Design and Natural Science Research on Information Technology, in: Decision Support Systems, Vol. 15, 1995, pp. 251-266 [22] MEADOWS, A.J.: Development of Science publishing in Europe, Amsterdam u. a. 1980 [23] NIINILUOTO, I.: Is There Progress in Science?, in: Stachowiak, H. (ed.): Pragmatik: Handbuch pragmatischen Denkens, Vol. 5. Meiner, Hamburg 1995 pp. 30-58 [24] NIINILUOTO, I.: Scientific Progress, in: Zalta, E.N. (ed.): The Stanford Encyclopedia of Philosophy 2007, [25] PAPAZOGLOU, M.P., VAN DEN HEUVEL, W.-J.: Service-oriented design and development methodology, in: International Journal of Web Engineering and Technology, Vol. 2, 2006, pp. 412-442 [26] PEFFERS, K., TUUNANEN, T., GENGLER, C.E., ROSSI, M., HUI, W., VIRTANEN, V., BRAGGE, J.: The Design Science Research Process: A Model for Producing and Presenting Information Systems Research, in: Chatterjee, S., Hevner, A. (eds.): Proceedings of the First International Conference on Design Science Research in Information Systems and Technology (DESRIST 2006) 2006, pp. 83-106 [27] POPPER, K.: Logik der Forschung. Mohr, Tübingen 1982 [28] RAVETZ, J.R.: Scientific Knowledge and its Social Problems, Oxford 1973 [29] ROOSENDAAL, H.E.: Developments in scientific communication: Considerations on the value chain, in: Information Services and Use, Vol. 21, 2001, pp. 13-32 [30] SCHNEBERGER, S.L., WADE, M.: Theories Used in IS Research Wiki, http://www.fsc.yorku.ca/york/istheory/wiki/, 2008, letzer Zugriff: 14.11.2008 [31] VAN SLOOTEN, K., HODES, B.: Characterizing IS Development Projects, in: Brinkkemper, S., Lytinnen, K., Welke, R.J. (eds.): Proceedings of the IFIP TC8, WG8.1/8.2 Working Conference on Method Engineering. Springer, Berlin et al. 1996, pp. 29-44 [32] YLIMÄKI, T., HALTTUNEN, V.: Method engineering in practice: A case of applying the Zachman framework in the context of small enterprise architecture oriented projects, in: Information Knowledge Systems Management, Vol. 5, 2006, pp. 189-209 [33] ZELEWSKI, S.: Relativer Fortschritt von Theorien. ein strukturalistisches Rahmenkonzept zur Beurteilung der Fortschrittlichkeit wirtschaftswissenschaftlicher Theorien., in: Zelewski, S., Naciye, A. (eds.): Fortschritt in den Wirtschaftswissenschaften. Wissenschaftstheoretische Grundlagen und exemplarische Anwendung., Wiesbaden 2006 pp. 217-336 [34] ZIMAN, J.M.: Public knowledge: an essay concerning the social dimension of science, Cambridge 1968 430 MODEN IN DER WIRTSCHAFTSINFORMATIK: WISSENSCHAFTSTHEORETISCHE UND WISSENSCHAFTSPRAKTISCHE ÜBERLEGUNGEN ZU EINER VON HYPES GEPRÄGTEN DISZIPLIN Hanno Schauer, Carola Schauer1 Kurzfassung Im vorliegenden Beitrag wird die Frage der Beeinflussung der Disziplin Wirtschaftsinformatik durch Modethemen aus wissenschaftstheoretischer Sicht näher untersucht. Auf Basis der Literatur werden Thesen bzgl. wissenschaftspraktischer Kennzeichen (Ursprung, langfristige Lerneffekte) und wissenschaftstheoretischer Fragestellungen (begriffliche Kontingenz, Originalität) aufgestellt. Die Diskussion der Thesen erfolgt anhand ausgewählter Moden der Wirtschaftsinformatik und erlaubt erste Schlussfolgerungen bzgl. der Rolle von Moden für die Disziplin. Unter Rückgriff auf Ergebnisse einer Umfrage unter CIOs im deutschsprachigen Raum werden abschließend Möglichkeiten und Grenzen der Einflussnahme der Disziplin auf Modethemen in der Praxis diskutiert. 1. Hintergrund und Motivation Die Wirtschaftsinformatik (WI) ist eine an Themen der Praxis orientierte und – zumindest nach Meinung einiger langjähriger Disziplinvertreter – eine deutlich von Moden betroffene Disziplin [10]. Verschiedene empirische Studien untermauern diesen Eindruck dahingehend, dass die wissenschaftliche Disziplin WI – auch – Themen adressiert, die als Mode eingestuft werden können ([10], [12], [13], [15]). Nicht selten wird von „Hypes“ gesprochen, denen sich offenkundig auch die wissenschaftliche Community nicht entziehen kann. Prominente Beispiele sind der „Internet-Hype“ oder – wie aktuell in der WIRTSCHAFTSINFORMATIK diskutiert – „Service Oriented Architectures (SOA)“ [8]. Explizit wurde die Rolle von Modethemen in der WI bisher in zwei schlagwortbasierten Publikationsanalysen adressiert. Mertens untersucht die Schlagworte in der Zeitschrift Computerwoche von 1975 bis 1995 und zieht hieraus Rückschlüsse auf thematische Moden in der WI, wobei er „im allgemeinen nicht zwischen Wissenschaft und Praxis differenziert“ ([12], S. 26). Er identifiziert „ausgeprägte Gipfel und Täler und wiederkehrende Modethemen“ ([12], S. 28) und diskutiert den Verlauf ausgewählter (Mode-) Themen unter zusätzlicher Bezugnahme auf den subjektiv gewonnenen Eindruck des jeweils erzielten Erkenntnisfortschritts. S. Steininger et al. analysieren jüngere Ausgaben der Computerwoche und der WIRTSCHAFTSINFORMATIK (19942005) und schlussfolgern u. a., dass sich die Disziplin WI „nach wie vor in hohem Ausmaß mit Moden [..] beschäftigt“ ([15], S. 1539). 1 Lehrstuhl für Wirtschaftsinformatik und Unternehmensmodellierung, Universität Duisburg-Essen, Universitätsstraße 9, D-45141 Essen 431 Moden implizieren für eine angewandte Disziplin – auf den ersten Blick – sowohl Chancen als auch Herausforderungen: Sie bieten einer anwendungsorientierten Disziplin – welche Legitimation nicht nur in der Wissenschaft, sondern auch in der dazugehörigen Praxis erreichen möchte – die Chance, durch die Bearbeitung aktueller Themen und Problemstellungen selbst positive Aufmerksamkeit zu erhalten. Gleichzeitig ist aus wissenschaftstheoretischer Sicht kritisch zu hinterfragen, inwiefern die Adressierung von Modethemen und die bewusste Verwendung modischer Schlagwörter aus der Praxis den Anforderungen eines grundlegenden wissenschaftlichen Ideals entsprechen und einen langfristigen Erkenntnisfortschritt der Disziplin WI befördern bzw. behindern. Dieser Beitrag ist als Diskussions- und Thesenpapier darauf gerichtet, die Chancen und Risiken des Umgangs mit Modethemen für die anwendungsorientierte wissenschaftliche Disziplin WI aus wissenschaftstheoretischer Sicht näher zu untersuchen.1 Grundlegend werden dazu nachfolgend der Begriff „Mode“ bzw. „Modethema“ diskutiert und Kriterien zur Bestimmung von Moden aufgestellt (Abschnitt 2). Die weiteren Überlegungen orientieren sich an Thesen über Charakteristika und Wirkungen von Moden. Diese Thesen werden in Abschnitt 3 eingeführt. Die Überprüfung der Thesen erfolgt anhand ausgewählter aktueller und früherer Modethemen in Abschnitt 4. Der abschließende Abschnitt formuliert Schlussfolgerungen und erörtert Handlungsoptionen für die Disziplin WI, auf Moden in der Praxis Einfluss zu nehmen (Abschnitt 5). 2. Begriffsabgrenzung Nachfolgend werden grundlegende, definitorische Eigenschaften von Moden in der WI diskutiert. Die Begriffe Mode, Modethema, Hype, Fad und Fashion werden dabei als synonym und gleichermaßen wertneutral verwendet. Die Frage der Bewertung von Moden wird im Rahmen der Thesendiskussion erst in den nachfolgenden Abschnitten thematisiert. 2.1. Kurzfristig sehr hohe Aufmerksamkeit Eine Mode kennzeichnet sich grundlegend dadurch, dass sie in der betrachteten Gemeinschaft oder Zielgruppe außerordentlich große Aufmerksamkeit erfährt. Das stark ausgeprägte Interesse an einem Modethema ist dabei typischerweise auf einen relativ kurzen Zeitraum beschränkt (wenige Monate oder Jahre); dies verdeutlichen die häufig synonym verwendeten Begriffe Modewelle oder Hype. Für Managementmoden stellt Kieser fest, dass deren Verlauf – in der Praxis – durch eine Glockenkurve beschrieben werden könne ([9], S. 22), da eine Mode recht schnell viele Anhänger findet, sich jedoch mit der Zeit „abnutzt“, da sie „ihre Wirkung als Symbol [..] des Fortschritts [verliert]“ ([9], S. 33). Mertens spricht diesbezüglich von einer Phase der Übertreibung oder Euphorie, auf die eine Phase der „Depression“ folgt ([12], S. 37). In ähnlicher Form definieren Steininger et al. Moden als „Themen, die kurzfristig aktuell sind und dann wieder abflauen“ ([15], S. 1540). Beide setzen dem aus wissenschaftstheoretischer Sicht negativ besetzten Begriff „Mode“ den Begriff „Trend“ entgegen, welcher Themen beschreibt, die in einer Community eher „langfristig“ und „stabil“ behandelt werden. Das zeitraumbezogene starke Themeninteresse lässt sich bspw. anhand von Stichwortanalysen einschlägiger Zeitschriften untersuchen (siehe bspw. [12] sowie [15] für die WI bzw. [14] für die Controllingforschung). Das Kriterium außerordentlich hoher Nennungshäufigkeit eines Schlagwortes über einen kurzen Zeitraum ist jedoch kein sicherer Indikator für hohe Aufmerksamkeit, u. a. weil Wechsel in der Begrifflichkeit in den genannten Untersuchungen nicht berücksichtigt werden. Auch ist die Anwendung teilweise Ermessensfrage: Die Intensität der Aufmerksamkeit als auch die Dauer der Aufmerksamkeit für ein bestimmtes Thema sind abhängig von der üblichen Aufmerk1 Damit soll in diesem Beitrag dediziert auf die Wissenschaft fokussiert werden. Für Einblicke in die Wirkmechanismen der Verbreitung von Moden in der betrieblichen Praxis siehe bspw. [1] oder [9]. 432 samkeit, die Themen in einer Gemeinschaft erhalten, sowie dem betrachteten Untersuchungszeitraum. 2.2. Überzeichnete und nicht rational begründbare Erwartungen an die Leistungsfähigkeit Der Modebegriff lässt sich neben diesen vornehmlich quantitativen Kriterien weitergehend inhaltlich analysieren. Denn die hohe Aufmerksamkeit, die ein Modethema erfährt, beruht auf überhöhten Erwartungen, die i.d.R. nicht vollständig rational begründet sind bzw. nicht überzeugend begründbar sind. Hier lässt sich eine Analogie zu Moden in anderen Kulturbereichen (z. B. Kleidung, Haartracht, Musik) sehen, denn auch hier ist es ganz offen „Geschmacksfrage“ und damit nicht rational über den Nutzen erklärbar, ob man einer Mode anhängt. Auch die Definition des Begriffs Mode als „sich wandelnder Geschmack“ unterstreicht diesen Aspekt. Beiträge zu Managementmoden sprechen diesbezüglich von „kühnen Versprechungen“ ([9], S. 22) und „simple formulas [..] promising a painless solution“ ([1], S. 588) die kennzeichnend für „fads“ und „fashions“ seien. Die Lösungsansätze werden dabei typischerweise der Komplexität des Gegenstandsbereichs nicht gerecht. Vor dem Hintergrund rationaler – bspw. ökonomischer Kriterien – zeigt sich daher für Moden eine Leistungsfähigkeit, die geringer ist als zunächst postuliert: Bei nüchterner Betrachtung und ggf. auch im Nachhinein zeigt sich, dass die hohen Erwartungen an die Leistungsfähigkeit auf wenig fundierten Einschätzungen derer fuß(t)en, die der Modewelle anhängen. Beispielhaft sei hier der „E-Commerce Hype“ genannt, der suggerierte, wirtschaftlicher Erfolg im Internet stelle sich bereits durch gewonnene Aufmerksamkeit („Clicks“) der Webseitenbesucher ein. Mertens ([12], S. 25) als auch Steininger et al. ([15], S. 1540) nennen – ohne weitergehende Konkretisierung – den Beitrag zum „Erkenntnisfortschritt“ oder zum „Stand der Disziplin“ als qualitatives Kriterium zur Einordnung von Themen als Moden oder Trends. Dabei scheint jedoch die angenommene Korrelation von Häufigkeit und Dauer der Verwendung von Schlagwörtern mit deren Beitrag zum langfristigen Erkenntnisfortschritt allzu gewagt (siehe [15], S. 1548). 2.3. Gegenstand der Moden in der WI Die bisherigen Ausführungen sprachen – abstrakt – von Mode-Themen. Betrachtet man genauer, welche Arten von Themen als Moden diskutiert werden, so zeigt sich, dass es häufig „Technologien“ sind, d. h. Klassen von Anwendungssystemen oder Systemkonzepte, bzw. damit verbundene betriebliche Anwendungsfelder. Beispielsweise vertritt Gartner ein eigenes „Hype Cycle“Konzept1: Demnach durchläuft jede neu eingeführte „Technologie“ – so die Annahme – einen prototypischen Lebenszyklus, der anfangs durch überhöhte Aufmerksamkeit geprägt ist, was zu einer Phase (überzogener) Ernüchterung bezüglich der Leistungsfähigkeit einer Technologie führt, auf welche dann schließlich eine reife (produktive) Technologie folgt. Die beiden in der WI durchgeführten empirischen Studien zu Moden deuten darauf hin, dass allgemeine Problemfelder oder Managementaufgaben im IT-Umfeld zwar auch, jedoch weniger häufig als Technologien oder Anwendungsklassen als Schlagwort auftauchen bzw. in der Diskussion als Mode thematisiert werden – dies gilt insbesondere für die Praktikerzeitschrift Computerwoche. Unter den von Mertens ([12], Abbildung auf S. 28) identifizierten Modethemen lassen sich elf als Technologie bzw. Systemklasse einordnen (MIS, Groupware, EDI, Datenbanken, KI, verteilte Systeme, Bürokommunikation, CIM, BTX, Multimedia, Client-Server) und sechs als allgemeine Problemstellung bzw. Managementaufgabe (Downsizing, Outsourcing, Dezentralisierung, Integration, Standardisierung, Sicherheit). In der jüngeren Untersuchung von Steininger et al. lassen sich von den Top-50 Schlagwörtern der Computerwoche (1994-2005) insg. 34 Schlagwörter dem Bereich Hardware/Technologie zu- 1 http://www.gartner.com/pages/story.php.id.8795.s.8.jsp 433 ordnen, bei der WIRTSCHAFTSINFORMATIK (1994-2005) sind unter den Top-50 dagegen nur 21 Schlagwörter zum Themenfeld Hardware/Technologie/System.1 Abschließend sei nochmals betont, dass aus unserer Sicht Themen vielfach nur in einem bestimmten Zeitraum als Mode behandelt werden, d.h. dass ihnen nur zeitlich begrenzt besonders großer Aufmerksamkeit zukommt und auch nur in diesem relativ kurzen Zeitraum die Erwartungen an deren Leistungsfähigkeit überzeichnet und nicht rational begründbar sind. 3. Thesen Die nachfolgende Diskussion orientiert sich an Thesen, die sich aus der Literatur bzw. dem Selbstverständnis der Disziplin WI ableiten lassen. Hierbei können wissenschaftspraktische Thesen, die das Phänomen Modewellen primär deskriptiv beschreiben, und wissenschaftstheoretische Thesen, welche u. a. die „Wissenschaftlichkeit“ von Moden bewerten, unterschieden werden. 3.1. Thesen bezüglich des Ursprungs und des praktischen Umgangs mit Moden Langjährige Vertreter der Disziplin WI sprechen im Rahmen einer Interviewstudie von einer „signifikanten Rolle“ von Modethemen und von „massiver“ Beeinflussung des Fachs durch Praxisentwicklungen ([10], S. 22). Wir nehmen daher an, dass typische Modethemen der Praxis entstammen, bspw. von IT-Beratungsunternehmen eingeführt werden (nicht zuletzt mit dem Ziel der Umsatzgenerierung). Die in der Praxis initiierten Modewellen schwappen dann aufgrund der vielfältigen Schnittstellen von WI-Forschern mit der Praxis (z. B. praxisfinanzierte Forschungsprojekte) auf die wissenschaftliche Disziplin WI über. These T1: „Ursprung in der Praxis“: Moden der Disziplin WI kommen aus der Praxis. Eine weitere These betrifft das Verhältnis zwischen inhaltlich verwandten Moden: Wie bei Kleidungsmoden offenkundig, so gehen wir auch bei Moden in der WI davon aus, dass es „revivals“ gibt, d. h. Modethemen, die in sehr ähnlicher Form wiederkehren. Mertens ([13], S. 1744) beklagt bspw.: „Mit den Modezyklen hängen unnötige Begriffswechsel zusammen.“ Dies erschwert bereits die Verknüpfung aktueller Forschung mit früheren Veröffentlichungen, die zwar thematisch verwandt jedoch mit anderen Begrifflichkeiten bearbeitet wurden. Auch Aussagen aus den Interviews mit langjährigen Vertretern der WI geben Hinweise darauf, dass auf Erfahrungen und Erkenntnisse, die aus früheren Modethemen gewonnen wurden, bei späteren Moden, die inhaltlich verwandt sind, kaum zurückgegriffen wird: „Die Nachteile überwiegen nicht deswegen, weil die Moden da sind, sondern, weil bei der neuen Modewelle auf die Ergebnisse der alten zu wenig zurückgegriffen wird, so dass wir keine kumulative Forschung haben.“ (P. Mertens, zitiert in [10], S. 21) Ebenso wird angemerkt, dass es erst seit kurzem längerfristige Forschungsprogramme einzelner Lehrstühle gäbe [10]. Somit unterstützt dies die These, dass (negative) Erfahrungen aus Moden allenfalls allmählich zu einem Erkenntnisfortschritt und zu einer Weiterentwicklung der Forschungslandschaft führen. Bezüglich der Organisationspraxis formuliert Kieser diesen Evolutionsgedanken wie folgt: „So tragen Moden, wenn schon nicht durch Revolutionen, so doch durch eine Akkumulation von vielen kleinen übrigbleibenden Schritten zum Wandel der Organisationen bei.“ ([9], S. 34). These T2: „Eingeschränkter Lerneffekt“: Auf (negative) Erfahrungen aus früheren – auch inhaltlich verwandten – Moden wird in späteren Moden häufig nicht zurückgegriffen. Daher tragen Modethemen i. d. R. nicht zu einem längerfristigen Erkenntnisfortschritt bei. 1 Aus Platzgründen können die detaillierten Kategorisierungen an dieser Stelle nicht veröffentlicht werden. Sie sind auf Nachfrage bei den Autoren erhältlich. 434 3.2. Wissenschaftstheoretische Thesen Die oben diskutierte definitorischen Eigenschaft, dass Mode-Begriffe während ihrer Hype-Phase besonders große Beachtung finden, wirft die Frage nach den dahinter liegenden Wirkmechanismen auf. Als ein wesentliches Merkmal der Rhetorik von in Managementbestsellern beschriebenen Managementmoden nennt Kieser ([9], S. 24) die Mehrdeutigkeit der zentralen Begriffe. Der Gegenstandsbereich der WI umfasst sowohl betriebswirtschaftliche oder Management-nahe Fragestellungen als auch solche, die als eher „technisch“ bezeichnet werden können, da sie bspw. Struktur und Aufbau von Informationssystemen betreffen. Typische Beispiele für Themen, die aus beiden Perspektiven heraus (unterschiedlich) verstanden werden können, sind IT-Sicherheit, Supply Chain Management, oder Customer Relationship Management.1 Es gibt sowohl in der Praxis als auch in der WI-Forschung Vertreter, die (aus unterschiedlichen Gründen) die eine oder andere Perspektive vornehmlich einnehmen. Ein Mechanismus, um einen Begriff oder ein Thema kurzzeitig besonders bekannt zu machen, besteht darin, diesem seine begriffliche Schärfe zu nehmen oder ihn neu in kontingenter Form einzuführen. So fällt es Vertretern aus Forschung und Praxis sowie Anhängern der unterschiedlichen Perspektiven leichter, sich selbst ein vordergründig verheißungsvolles Thema „auf die Fahnen zu schreiben“. Diese Einschätzung drängt sich bspw. auf, wenn man den Begriff der Business Services betrachtet, welcher zum Leitthema dieser Konferenz bestimmt wurde. These T3: „Verwässerungsthese“: Modewellen gehen mit einer unangemessen kontingenten Begrifflichkeit zentraler, die Modewelle prägender Konzepte einher. Eine weitere für Modewellen definitorische Eigenschaft ist, dass sie – zumindest typischerweise – nicht so leistungsfähig sind, wie es die überhöhte Aufmerksamkeit suggeriert. Es stellt sich somit die Frage nach einer möglichen Ursache für die nicht erfüllten Erwartungen. Eine Vermutung ist, dass die Originalität von Modebegriffen und den dahinter steckenden Konzepten begrenzt ist, was auch eine Erklärung dafür sein kann, warum entsprechende Moden sich nicht zum Trend weiterentwickelten. In Verallgemeinerung der These 2 „Eingeschränkter Lerneffekt“ wird vermutet, dass nicht nur die Hypes, welche vorangegangene Trends unter einem neuen Namen wieder aufgreifen, sondern alle Hypes sich dadurch auszeichnen, dass sie nicht primär inhaltlich innovieren, sondern existierende Konzepte öffentlichkeitswirksam darstellen. These T4: „Begrenzte Originalität“: Modewellen sind konzeptionell eher wenig innovativ, sondern stellen bestehende Konzepte öffentlichkeitswirksam dar und evolutionieren somit allenfalls den Stand der Kunst. 4. Überprüfung der Thesen an ausgewählten Modethemen Zur Diskussion der obigen Thesen beschränken wir uns nachfolgend auf ausgewählte Modethemen, die in der Literatur bereits als solche identifiziert und diskutiert wurden. Die Gegenstände der hier genannten Moden sind dabei sehr unterschiedlich. Es finden sich Geschäftsmodelle, Architekturbzw. Design-Prinzipien für Informationssysteme ebenso wie grundständige Annahmen über vermeintlich neue Funktionsweisen von Ökonomie. Die Begriffe „Expertensysteme“, und „E-Business“ bzw. „Internet-Hype“ wurden im Rahmen der Interviewstudie von langjährigen Vertretern der WI als Moden der WI genannt ([10], S. 2 ff.). Die zeitlich begrenzte überhöhte Aufmerksamkeit, die Expertensystemen in den 1980er Jahren zugekommen ist, und die Problematik deren praktischer Anwendung aufgrund übermäßiger Formalisierung wird bspw. von Frank [3] thematisiert. Das „E-Business“ – zumindest für den Zeitraum Ende der 1990er Jahre bis März 2000 – als Mode eingestuft werden kann, lässt sich aufgrund des Plat1 Eine detaillierte Kategorisierung einschlägiger Begriffe ist auf Nachfrage bei den Autoren erhältlich. 435 zens der Dot-Com Blase leicht nachvollziehbar begründen: Die überzogenen Erwartungen an EBusiness Geschäftsmodelle erzeugten einen Hype, der wie kaum eine andere Mode im Umfeld der WI ganze Märkte neu geschaffen und beeinflusst hat. Ebenfalls „E-Business“ sowie „Application Service Providing (ASP)“ bzw. „Application Service Provider“ heben Steininger et al. ([15], S. 1548 ff.) als Ergebnis der Stichwort-basierten Inhaltsanalyse von Zeitschriftenartikeln als Modethemen hervor. Zusätzlich wird hier „Content Management“ genannt; dieses Thema soll jedoch nicht weitergehend betrachtet werden, da hier nicht in einer für diesen Beitrag hinreichenden Weise von überhöhten Erwartungen ausgegangen werden kann. „Enterprise Application Integration“ (EAI) wird von Aier und Schelp [2] als Modethema (Hype) diskutiert, welches – ihrer Analyse nach – bisher noch keinen Beitrag zur „nachhaltigen Agilität“ des Unternehmens leistet. In thematisch engem Zusammenhang zu EAI steht der Ansatz der „Service Oriented Architectures“ (SOA), welcher von Kaczmarek und Węcel als Mode (buzzword) der WI diskutiert wird und ihrer Einschätzung nach von Softwareunternehmen übermäßig („overused“) und von Beratungsunternehmen falsch („misused“) verwendet wird [8]. Ergänzend sei, nicht zuletzt aufgrund seiner Allgegenwärtigkeit im Call For Papers zu dieser Konferenz, der Begriff „Business Service“ ebenfalls als (potentielle) Mode Gegenstand unserer Untersuchung. Dem Themenbereich „semantische Technologien / Ontologien“ widmen sich schon seit einigen Jahren sowohl in der Informatik als auch in der WI diverse Forschungsgruppen und -projekte. Bezüglich der Leistungsfähigkeit von semantischen Technologien in der betrieblichen Praxis gibt es jedoch eine Reihe kritischer Stimmen (z. B. [5], [7]), die vermuten lassen, dass dieses Themenfeld ebenfalls als Mode mit überhöhten Erwartungen gesehen werden kann. Auch aus den Reihen der WI-Forscher wird Skepsis geäußert: „the project of ontology-based conceptual modelling appears to be impossible in principle“ ([16], S. 74). Die eingeführten ausgewählten Moden der WI können – ohne Zweifel – nicht als zuverlässige empirische Basis dienen, um die aufgestellten Thesen zu stützen. Es wird sich jedoch zeigen, dass sich anhand der ausgewählten Themen bereits durchaus interessante Hinweise und Einblicke bezüglich der Rolle und des Umgangs mit Moden in der WI ableiten lassen. 4.1. These 1: „Ursprung in der Praxis“ Bereits die geringe Auswahl an Modethemen in diesem Artikel vermag diese These zu relativieren, Modewellen würden – zumindest initial – der Praxis entspringen. Zwar entstammt die Mehrzahl der hier untersuchten Hypes der Praxis (SOA, EAI, ASP). Allerdings wurden insbesondere Expertensysteme, semantische Technologien und SOA ebenfalls sehr stark durch die Wissenschaft vorangetrieben. Dies zeigt sich u. a. in einschlägigen Entwürfen von Sprachen, die eine semantisch angereicherte Kommunikation zwischen Informationssystemen erlauben – bspw. als Erweiterung gängiger Internet-Protokolle (z. B. OWL – Web Ontology Language, SOAP – Simple Object Access Protocol) – bzw. in Vorschlägen für Auszeichnungssprachen und Kalküle, die das automatisierte Schließen auf bestehenden Daten- und Regelbasen ermöglichen (Expertensysteme und semantische Technologien). Die in Teilen beeindruckende Produktivität der Forscher bei der Bearbeitung von Modethemen kann dabei durchaus als Chance angesehen werden. Dabei mögen die Motive der Wissenschaftler für die intensive Beschäftigung und Förderung von Modethemen vielfältig sein. In manchen Fällen mag es tatsächlich die Hoffnung oder der Glaube des (jungen) Wissenschaftlers an die Leistungsfähigkeit des entspr. Konzepts zur Problemlösung sein. Folgt man jedoch den Meinungen der in der Interviewstudie befragten langjährigen Vertreter der WI [10], so werden eher opportunistische Interessen verfolgt. Denn die Behandlung von Forschungsthemen, die als en vogue gelten, erhöht die Aufmerksamkeit für die eigene Forschung in Praxis und Wissenschaft und erleichtert somit die Akquisition von Drittmitteln und schafft neue Veröffentlichungsmöglichkeiten. 436 4.2. These 2: „Eingeschränkter Lerneffekt“ In den betrachteten Modewellen lassen sich Evolutionsstufen einer jeweils bestimmten prägenden Idee identifizieren, die sich in verschiedenen Moden wiederholt. Zum einen eint eine grundsätzliche Idee automatisierten Schließens auf formalsprachlich spezifizierten Wissensbasen sowohl die in den 1980ern und 1990ern a la mode gehandelten Expertensysteme als auch semantische Technologien. Expertensysteme sind an ihrem Anspruch der Formalisierung gescheitert [4]. Mittlerweile sehen erste Arbeiten zu semantischen Technologien und Ontologien auch dies als Problem an (z. B. [16]). Diese Argumentation unterstützend merkt Mertens an: „Ganz ähnliche Sachverhalte wurden im Laufe der Jahrzehnte unter Stichworten wie ‘Informationserschließung’, ‘Information Retrieval’, [..] ‘Informationsmanagement’, ‘Business Intelligence’, ‘Selective Dissemination of Information’ (SDI) oder ‘Organizational Intelligence’ untersucht. Im Kern ging es und geht es immer wieder um die Frage, wie man Informationen besorgt, filtert, in der richtigen Aufbereitung zum richtigen Zeitpunkt an die richtigen Empfänger liefert [..]. Die jeweilige Spezialistengemeinde hat sich aber kaum um die Vorgängerarbeiten gekümmert, zuweilen wusste man gar nichts von ihnen.“ ([13], S. 1742) ASP hat – nicht zuletzt, da es im Widerspruch zum Kernkompetenzansatz steht – an Bedeutung verloren, aber ist, zumindest in der Praxis, als Mietsoftware oder „Software-as-a-Service“ wieder im Gespräch. Dies lässt sich bspw. ersehen an Beiträgen bzw. Suchergebnissen auf den onlinePlattformen einschlägiger Praktikerzeitschriften, wie bspw. der Computerwoche oder ComputerZeitung. 4.3. These 3: „Verwässerungsthese“ Verwässerung ist teilweise aber nicht durchgängig Kennzeichen der untersuchten Modewellen. In der für diesen Artikel genutzten Auswahl gibt es eine auffällige (aber wahrscheinlich nicht repräsentative) Zweiteilung zwischen der Wissenschaft und der Praxis entstammender Themen: Themen, die der Praxis entsprungen sein dürften, weisen ein tendenziell hohes Maß an begrifflicher Kontingenz auf – bspw. differenziert Masak ([11], u. a. S. 11) fünf deutliche voneinander abweichende Interpretationen des Begriffes SOA, von einer Entwurfmetapher für Software bis hin zu einer Strukturidee für Services nutzende Organisationen. Auch der Integrationsbegriff (EAI) (z. B. [4]) und der ASP-Begriff (siehe [15]) werden in vielschichtiger Semantik verwendet. Interessanter Weise sind die Kernbegriffe von Themen, die vornehmlich aus den Reihen der Wissenschaft vorangetrieben werden (Expertensysteme, Ontologien – beide in Teilen dem Bereich der Künstlichen Intelligenzforschung zuzurechnen), relativ scharf konturiert. Steininger et al. kommen in ihrer Studie u. a. zu dem Ergebnis, dass in der Praktikerzeitschrift Computerwoche die Spitzen (d. h. die Moden) noch ausgeprägter und die relativen Häufigkeiten der einzelnen Schlagwörter deutlich kleiner sind als in der WIRTSCHAFTSINFORMATIK ([15], S. 1545, 1548). Die Vertreter der WI scheinen sich also zwar ebenfalls mit Modethemen zu befassen, diese aber jeweils gründlicher zu untersuchen. Folglich kann die These aufgestellt werden, dass das Befassen der WI-Forscher mit den Modethemen (der Praxis) zu einer differenzierteren Einschätzung und einem objektiveren Umgang mit den Modethemen in Praxis und Wissenschaft beiträgt. Dies bestätigt mittelbar auch eine auf Controlling-Instrumente gerichtete Literaturstudie: „Die praxisnahen Veröffentlichungen zeichnen überwiegend ein positives Bild der jeweiligen Instrumente, während die wissenschaftlichen Beiträge eher als neutral bis mäßig positiv eingestuft werden können.“ ([14], S. 256) 437 4.4. These 4: „Begrenzte Originalität“ Eine grundsätzliche Stützung der These begrenzter Originalität kann nicht getroffen werden. So ist bspw. das Konzept der Expertensysteme keine triviale Rekonstruktion des Standes der Kunst in den 1980er Jahren. Die Frage der begrenzten Originalität wird allerdings zum einen von den Moden gestützt, die Grundideen älterer Modewellen immer wieder aufleben lassen (siehe hierzu These 2 „Eingeschränkter Lerneffekt“). Zum anderen gilt diese These für die Moden in unserer Auswahl, die einer überaus großen begrifflichen Kontingenz unterliegen, da infolge der Kontingenz ein Neuigkeitsgehalt kaum auszumachen ist. Einigen Moden mangelt es aber teils nicht nur an Originalität, sondern auch an einer guten Begründung. Nicht zuletzt widerprechen die vollmundigen Verheißungen des E-Commerce-Hypes sogar gängigen Lehrmeinungen. 5. Schlussfolgerungen und Handlungsoptionen Die Hypes und Moden der WI werden bislang in wenigen Publikationen thematisiert. Dies mag der Grund dafür sein, dass es schon auf Basis der hier untersuchten (vergleichsweise kleinen) Themenauswahl gelingt, literaturgängige Meinungen zu den Moden der WI zu schärfen bzw. zu widerlegen. Mit Blick auf die hier aufgestellten Thesen können wir zusammenfassen: T 1: Die Modewellen der WI entstammen nicht allein der Praxis. Auch die Wissenschaft beteiligt sich in erkennbarem Maße an der Verstärkung von Modewellen. Einige der Modewellen wurden sogar vornehmlich aus Kreisen der Wissenschaft initiiert und vorangetrieben. T 2: Es ist ein interessantes Phänomen, dass sich inhaltlich bzw. konzeptuell stark ähnelnde Modewellen in zeitlich überschaubaren Abständen unter neuen Begrifflichkeiten ein Revival erfahren, ohne dass die Probleme und Herausforderungen vorangegangener Hypes in den nachfolgenden hinreichend adressiert würden. T 3: Ein verwässerter, kontingenter Aussagegehalt des namensgebenden Kernbegriffes eines Modethemas ist – bezogen auf unsere Auswahl – eine häufige, aber keine durchgängig Eigenschaft von Modewellen. Teilweise sind die Begriffe für eine wissenschaftliche Behandlung angemessen konkret. T 4: Die in einer Modewelle popularisierten Inhalte zeichnen sich teilweise, aber nicht durchgängig, durch eine deutlich eingeschränkte Originalität gegenüber dem jeweiligen Stand der Kunst aus. Zuweilen sind die vorgeschlagenen Konzepte sogar inhaltlich so fragwürdig, dass sie sogar gängigen Lehrmeinungen zuwiderlaufen. Gemäß einem basalen Wissenschaftsideal ist es die vornehme Aufgabe der Wissenschaft, durch wohl begründete und differenzierte Beiträge zum allgemeinen Erkenntnisfortschritt beizutragen. Das Wissenschaftsideal einer angewandten wissenschaftlichen Disziplin impliziert hierbei ein Streben nach Objektivität und Rationalität auch bezüglich (Mode-) Themen der Praxis (vgl. [9], S. 34). Was die Bewältigung realer Modewellen in der Praxis anbelangt, zeigte sich aber die wissenschaftliche WI hierbei teils wenig erfolgreich (vgl. T 2 bis T 4) und – in Teilen – auch wenig obigem basalen Wissenschaftsideal angemessen (vgl. insb. T 1). Für die Organisationsforschung bzw. Betriebswirtschaftslehre zeichnet Kieser ein – aus wissenschaftstheoretischer Sicht – recht pessimistisches Bild bzgl. der Einflussnahme der Managementmoden auf die Organisationsforschung [9]. Für die Disziplin WI kann zumindest festgestellt werden, dass sie nicht in Gänze thematisch von den Einflüssen der Modethemen der Praxis abhängig ist. Man kann durchaus von einer deutlichen thematischen Selbstständigkeit der wissenschaftlichen Community der WI sprechen. Dies zeigt sich bspw. an den von Steiniger et al. (2008, S. 1545) identifizierten Top-50 Schlagwörtern aus der Computerwoche und der WIRTSCHAFTSINFORMATIK (1994-2005): Für die Bereiche Modellierung und Prozessorientierung, die in der 438 WIRTSCHAFTSINFOMRATIK mit 3 bzw. 7 Schlagwörtern unter den Top-50 relativ stark vertreten sind, findet sich in der Top-50 Liste der Computerwoche kein passendes Schlagwort.1 Weiterhin stellt sich die Frage nach dem grundsätzlichen Nutzwert, Modethemen der Praxis in wissenschaftlichen Diskursen zu adressieren. Denn diesbezüglich wirkt die Position der Wissenschaft nicht ideal. Insbesondere sind die zeitlichen Takte, in denen die Wissenschaft arbeitet, nur eingeschränkt dafür geeignet, zeitnah auf Modewellen zu reagieren. Mertens weist bezüglich der Relation zwischen der Lebensdauer einer Modewelle und der Reaktionszeit der Wissenschaft darauf hin, „[..] dass wir [die Wissenschaft] in etwa eine Zeitstrecke von drei bis vier Jahren benötigen, damit ein junger Wissenschaftler – insbes. im Rahmen seiner Dissertation – einen Forschungsgegenstand einigermaßen abgerundet bearbeiten kann“ ([13], S. 1748). In einer vergleichenden Untersuchung von zehn Publikationsorganen der auf die Praxis gerichteten IT-Fachpresse stellen Heise et al. darüber hinaus fest, dass „Die wesentliche Stärke der analysierten Fachzeitschriften im Vergleich zu wissenschaftlichen Zeitschriften [...] ihre Aktualität“ ist, welche sich aus der niedrigen Zeitspanne zwischen Einreichung eines Manuskripts und dessen Veröffentlichung ergibt ([6], S. 21), während die wissenschaftliche Fachliteratur nur mit deutlichem Zeitverzug veröffentlichen (ebd., S. 24). Der Eindruck einer verzögerten Reaktionszeit bestätigt sich auch für die hier untersuchten Modewellen. Das Gros der von uns gefundenen kritischen Beiträge zu Modethemen wurde erst veröffentlicht, nachdem das jeweilige Modethema schon länger diskutiert wurde. Absolventen der Wirtschaftsinformatik, die in die Praxis gehen Beratung durch WI-Professoren und Forschungsgruppen Seminare für Fachleute aus der Praxis (durchgeführt von WI-Professoren und -Forschungsgruppen) Veröffentlichung von Ergebnissen in wissenschaftlichen Zeitschriften Veröffentlichung von Ergebnissen in Praktiker-Zeitschriften Präsentation und Diskussion von Ergebnissen auf Konferenzen Präsentation und Diskussion von Ergebnissen und Trends auf Fachmessen (z.B. CeBIT) Forschungsprojekte mit der Industrie 0 10 20 30 40 50 60 70 80 90 100 % (von insg. 122) nicht + kaum wichtig durchaus + sehr wichtig Abbildung 1: Einschätzung der Wichtigkeit verschiedener Wege, um Forschungsergebnisse der WI in die Praxis zu bringen Im Rahmen einer Umfrage zur Wahrnehmung der Disziplin WI durch CIOs, wurde die Frage „Wie wichtig sind Ihrer Einschätzung nach Absolventen der WI, die in die Praxis gehen, um Forschungsergebnisse in die Praxis zu bringen?“ besonders einhellig mit „durchaus wichtig“ (52,5%) bzw. „sehr wichtig“ (41,8 %) beantwortet (siehe Abbildung 1).2 Dies unterstreicht die These, dass die Verbreitung von Konzepten der Wissenschaft in die Praxis eher langfristig und vor allem über die Ausbildung von Studenten stattfindet, die in der Lehre vermittelte Konzepte der Wissenschaft in die Praxis tragen. Aus wissenschaftspraktischer Sicht haben Modethemen der Praxis auch eine positive Seite. Sie ermöglichen der Wissenschaft einen leichteren Zugang zum Diskurs mit der Praxis. Aufgabe der 1 Die detaillierten Kategorisierungen sind auf Nachfrage von den Autoren erhältlich. Die Umfrage zur Wahrnehmung der WI durch CIOs wurde im Rahmen des Projektes IFWIS durchgeführt. Nach mehreren Pre-Tests erfolgte Ende November 2007 der Versand der papierbasierten Fragebögen an die Zielgruppe. Der Zugang zur Zielgruppe wurde durch die freundliche Unterstützung von Prof. Helmut Krcmar (TU München) über die Mitgliederliste des CIO-Circle (http://www.cio-circle.org/) ermöglicht. Bis Februar 2008 wurde eine Rücklaufquote von 18,86 % (122) erzielt. Ein detaillierter Ergebnisbericht ist in Vorbereitung. 2 439 Wissenschaft sollte dann jedoch sein, eine kritisch differenzierte Sicht auf die Leistungsfähigkeit aktueller Modethemen zu vertreten. Dabei sollte sich die akademische Welt insbesondere dann zu Wort melden, wenn eine Modewelle Erkenntnissen der Wissenschaft in erkennbarer Weise widerspricht. Die Ergebnisse der Umfrage deuten darauf hin, dass es erfolgversprechend ist, die kritische Sicht der Wissenschaft auf aktuelle Moden im Rahmen von Beiträgen für Praktikerzeitschriften oder Konferenzen zu thematisieren. Auch Forschungsprojekte mit der Industrie werden von den befragten Praktikern mit deutlicher Mehrheit als wichtig eingestuft, um Erkenntnisse der Wissenschaft in die Praxis zu bringen. Vor dem Hintergrund der Zeitzyklen der Wissenschaft scheint es jedoch grundsätzlich angeraten auf längerfristige Forschungsprogramme zu fokussieren und dabei ggf. inhaltlich verwandte Modethemen zu adressieren. 6. Literatur [1] ABRAHAMSON, E.: Managerial Fads and Fashions: The Diffusion and Rejection of Innovations, in: Academy of Management Review, Bd. 16, 1991, S. 586-612. [2] AIER, S., SCHELP, J.: EAI und SOA – Was bleibt nach dem Hype?, In Bichler, M., Hess, T., Krcmar, H., Lechner, U., Matthes, F., Picot, A., Speitkamp, B., Wolf, P. (Hrsg.): Multikonferenz Wirtschaftsinformatik (MKWI08), Feb 26-28, 2008, München, GITO-Verlag, Berlin, 2008, S. 1469-1480. [3] FRANK, U: Expertensysteme: Neue Automatisierungspotentiale im Büro- und Verwaltungsbereich?, Gabler, 1988. [4] FRANK, U.: Integration – Reflections on a Pivotal Concept for Designing and Evaluating Information Systems. In: Kaschek, R.; Kop, C.; Steinberger, C.; Fliedl, G. (Hrsg.): Information Systems and e-Business Technologies. 2nd International United Information Systems Conference UNISCON 2008, Springer, Berlin, Heidelberg, 2008, S. 111-122. [5] HANIEWICZ, K.; KACZMAREK, M.; ZYSKOWSKI, D.: Semantic Web Services Applications – a Reality Check, In: WIRTSCHAFTSINFORMATIK, Bd. 50, Nr. 1, 2008, S. 39-45. [6] HEISE, D.; SCHAUER, C.; STRECKER, S.: Informationsquellen für IT-Professionals: Analyse und Bewertung der Fachpresse aus Sicht der Wirtschaftsinformatik, ICB Research Report, Institut für Informatik und Wirtschaftsinformatik (ICB), Universität Duisburg-Essen, Campus Essen, Nr. 15, April 2007 (40 S.). [7] HUBER, H.: Auf dem Weg zum wertorientierten Wissensmanagement. Keynote auf der Tagung Wissensmanagement 2007, 28. - 30. März 2007, Potsdam. (online: http://www.wm-tagung.de/) [8] KACZMAREK, T.; WECEL, K.: Hype over Service Oriented Architecture Continues. WIRTSCHAFTSINFORMATIK, Bd. 50, Nr. 1, S. 52-58. [9] KIESER, A.: Moden & Mythen des Organisierens. In: Die Betriebswirtschaft, Bd. 56., 1996, S. 21-39. [10] LANGE, C.: Entwicklung und Stand der Disziplinen Wirtschaftsinformatik und Information Systems – Interpretative Auswertung von Interviews: Teil III Ergebnisse zur Wirtschaftsinformatik, ICB – Research Report, Universität Duisburg-Essen, Nr. 4, 2006. [11] MASAK, D.: SOA? – Serviceorientierung in Business und Software, Springer Berlin Heidelberg, 2007. [12] MERTENS, P.: Wirtschaftsinformatik – Von den Moden zum Trend. in: König, W. (Hrsg.), Wirtschaftsinformatik '95, Wettbewerbsfähigkeit – Innovation – Wirtschaftlichkeit, Heidelberg 1995, S. 25-64. [13] MERTENS, P.: Gefahren für die Wirtschaftsinformatik – Risikoanalyse eines Faches. Proceedings Wirtschaftsinformatik 2005, S. 1733-1754. [14] SCHÄFFER, U.: Die Verbreitung von Wissen zu Controlling-Instrumenten – Eine Analyse der Veröffentlichungstätigkeit in deutsch- und englischsprachigen Fachzeitschriften. Gabler, 2007. [15] STEININGER, K.; RIEDL, R.; ROITHMAYR, F.: Zu den Begrifflichkeiten und Moden der Wirtschaftsinformatik: Ergebnisse einer inhaltsanalytischen Betrachtung. In: Tagungsband Multikonferenz Wirtschaftsinformatik (MKWI) 2008, München, S. 1539-1550. [16] WYSSUSEK, B.: On Ontological Foundations of Conceptual Modelling, Scandinavian Journal of Information Systems, 2006, Bd. 18, Nr. 1, S.63-80. 440 TOWARDS A RESEARCH METHOD FOR THEORYDRIVEN DESIGN RESEARCH Andreas Gehlert1, Michael Schermann2, Klaus Pohl3, Helmut Krcmar4 Abstract In this paper we outline a new methodical approach for integrating theories into the design research process. Incorporating theories in design projects allows design researchers to reason on the effects of the IT artifact prior to its realization. We argue that design decisions should be transparent claims of utility based on theory-grounded arguments. Documenting design decisions requires the design researcher to integrate appropriate theories and document the rationale behind a particular design decision. Overall, we demonstrate on the example of constructing a new modeling grammar how to integrate theories in the design research process and discuss conflicts which occur when applying these theories. 1. Introduction “But how does such work contribute to the progress of the IS discipline?” [27, p. 8] The concept of theory is a cornerstone of improving the inter-subjectivity of design artifacts [25]. The relation between theory and design is twofold [15, cf. Figure 1]: First, theories can be used to derive design artifacts such as airplanes, information systems, computers etc. (theory before design). This relation is based on the assumption that any design artifact cannot work if it does not comply with the laws embodied in a theory. In addition, the artifact may be significantly improved if the underlying theory is explicit. For instance, “… one can design an airplane wing on the basis of tested, technological (black-box) rules, but such wings can be designed much more efficiently on the basis of tested and grounded technological rules, grounded on the laws and insights of aerodynamic and mechanics.” [23, p. 228] Second, theories can be extracted from design artifacts to initiate theory building [17, theory after design]. The main reason for this activity is not only to extend the IS theory base but also to generalize design knowledge and to facilitate the comparison of design artifacts [27]. 1 Software Systems Engineering, Institute for Computer Science and Business Information Systems, Universität Duisburg-Essen, Schützenbahn 70, 45117 Essen, Germany 2 Chair for Information Systems, Technische Universität München, Boltzmannstr. 3, 85748 Garching, Germany 3 Software Systems Engineering, Institute for Computer Science and Business Information Systems, Universität Duisburg-Essen, Schützenbahn 70, 45117 Essen, Germany 4 Chair for Information Systems, Technische Universität München, Boltzmannstr. 3, 85748 Garching, Germany 441 Figure 1: Elements of theorizing in design research based on Nunamaker and Chen [15] In this paper, we focus on the contribution of theories for building design artifacts in the information systems discipline, e. g. we assume that already existing IS theories inform the design researcher when creating IT artifacts. Although many IS researchers argue that the design research process should be informed by existing theories [e. g. 8; 13; 22; 25], we argue that methodological guidance is needed to systematically integrate theories in the design research process. We base our argumentation on the notion of design rationales and show how theories can be used to support the decision making process in design research. Design rationales serve as a documentation of the design process and enable the design researcher to trace his or her design decisions [11; 16]. In current design rationale approaches, however, the decision making process is guided by the experience of the design researcher only. This experience may include best practices and/or theoretical knowledge. Since the link between a particular design decision and the theoretical knowledge leading to this decision is implicit, design decisions cannot be clearly traced back to theoretical knowledge. In this paper we show how existing design rationale approaches can be combined with theoretical knowledge to overcome this problem. The remainder of the paper is organized as follows: In section 2, we review existing design research approaches. We show that research has primarily focused on the structure of theories in design research. We describe our approach in the third section and discuss its benefits as well as its limitations. The paper closes with a summary of the results and an outlook of our further research plans. 2. Related Research on Theorizing in Design Research Many authors addressed the methodological aspect of theorizing activities in design research [8; 13; 19; 24; 25]. In their seminal paper, Hevner et al. [9] for instance propose seven guidelines to determine the contribution of design research results to the IS knowledge base. For instance, their guideline 3 requires that the “… utility, quality, and efficacy of [the] design artifact must be rigorously demonstrated.” To meet human requirements, the resulting artifact is usually complex and the result of an iterative process [22]. Consequently, Hevner et. al’s guideline 6 characterizes the design process as a search process. However, following both guidelines constitute a problem for the design researcher. They need to document and trace their decision-making process and the underlying information, e. g., requirements, design proposals, and development records. For instance, evaluating the quality of an artifact requires documenting the relationship of initial requirements, their evolution during the design process and the corresponding aspects of the artifact that addresses these requirements [24]. 442 Therefore, design researchers have focused on providing a structure for systematizing and justifying decisions during the design process. Table 1 shows that all approaches provide categories for documenting design decisions: requirements, a corresponding design proposal and means for justifying the design proposal. Furthermore, all approaches require design researcher to specify ways to evaluate the design proposal. Additionally, Gregor and Jones (2007) and Schermann et al. (2007) provide a category to reflect the iterative character of design processes and the evolution of design artifacts. Guidance on how to... Elements of design theorizing Table 1: Existing approaches to design theorizing in IS research However, Table 1 clearly shows that all approaches fail to provide methodical guidance on the actual process of theorizing in design research. No guidance is given on how to relate design decisions to suitable theoretical justification. Overall, we argue that the process of developing the artifact requires integrated theorizing activities. In the remainder of this paper we show how to document design decisions by developing theory-based design arguments. 3. Justifying Design decisions with Theories The structure of our approach, which is explained in this section, is depicted in Figure 2. To further describe this structure we use the construction of a new modeling grammar as running example. The description is split into three parts: First, the classical design research perspective is introduced. This perspective also provides the goals and requirements of the running example. Second, theories, which are relevant for our example, are elicited and the structure of theories is described. Lastly, design rationale – the integrating element between this theoretical perspective and the design research perspective is introduced. 443 Figure 2: Constructs of our approach 3.1. Design Research Perspective Each design process starts with goals [20]. Generally, goals give a coarse-grained picture of the envisioned IT artifact. The overall design goal in our example is the “construction of a conceptual modeling grammar for inexperienced modelers” [e. g. 28]. Goals are further decomposed into requirements. This decomposition process serves two purposes: First, the design process can be traced more easily by specifying what makes up this goal. Second, the decomposition of a goal into requirements allows evaluating the IT artifact. To achieve this measurability of all requirements, each requirement is attributed with indicators. The desired outcome of this measurement is described as value (cf. black elements in Figure 2). The decomposition of the goal into measurable indicators is described in the following exhibit: Exhibit 1: According to Wand and Weber [26, p. 364] a modeling grammar is a set of modeling constructs representing some proportion of the real world together with rules describing the lawful combinations of these constructs. The authors argue that such a modeling grammar should enable an efficient interpretation of its models [26, p. 366]. To interpret a model it should be easy to understand. To use a model it should aid the model interpreter when solving problems with this model. Hence, we decompose the general goal into two requirements “models should be easy to understand” (Rf-1) and “problems should be easy to solve with the models” (Rf-2; cf. Figure 3). The requirement Rf-2 should be measured by the property “problem solving accuracy” and the design researcher expects at least 75% problem solving accuracy during the evaluation of the artifact. Consequently, the design researcher assigns the value 75% to the property “problem solving accuracy”. Rf-1 is decomposed accordingly. Figure 3: Goal Decomposition 444 In the following, we assume that requirements with different operationalizations, e. g., different sets of indicators are different and requirements with equivalent sets of indicators are identical. Consistency Rule 1: Requirements with different sets of indicators are different; requirements with equivalent sets of indicators are identical. To understand consistency rule 1 we need to express what we understand by different and identical indicators. Two indicators are said to be equivalent if they describe identical real world proportions. The indicators are different if they describe different real world proportions. Furthermore, two sets of indicators A and B are equivalent if for each indicator in set A there is an equivalent indicator in set B and vice versa. If this condition does not hold both sets are different. So far we have followed traditional design science approaches. The next question is how to derive solutions, which fulfill the requirements. Since, solving problems is generally characterized as creative activities, design researchers implicitly draw upon theoretical knowledge [8; 14; 20; 22]. Achieving traceability in this creative task, the design researcher needs to link his or her existing theoretical knowledge to the specific characteristics of the IT artifact. 3.2. Theories in IS Research We need to further investigate the structure of theories to prepare their integration with a rationale management system in the next section. A theory can be described as set of hypotheses ([2]; see [7] for other definitions of theory in IS research). A hypothesis is a cause-effect relationship based on at least two constructs [5]. One construct represents the hypothesis’ cause and the other construct its proposed effect. Each construct may be represented by a set of indicators (reflexive construct) or is causing these indicators (formative construct) [6]. Overall, the indicators operationalize the construct and are, therefore, the way the construct is measured during theory testing. This notion of theory is represented by the white elements in Figure 2. Given that the construct is well described by its indicators (construct validity) we can conclude: Consistency Rule 2: Constructs with different sets of indicators are different; constructs with equivalent sets of indicators are identical. For our running example we use theoretical hypotheses from the modeling research domain, which closely fit our goals of understandable models and models, which facilitate problem solving. These hypotheses are described in the next exhibit: Exhibit 2: We apply the work of Burton Jones & Weber [4] and Bodart et al. [1] for our design work. Both papers show how to measure comprehension of models and their problem solving capability. Furthermore, they suggest hypotheses, which are relevant for our design problem. Bodart et al. [1] describe the construct surface level comprehension which is measured by the indicators “proportions of entities recalled correctly”, “proportion of relationships recalled correctly”, “proportion of attributes recalled and named correctly”, “proportion of attributes recalled and typed correctly” and “proportion of relationships recalled correctly with correct cardinalities” [1, pp. 391]. Bodart et al. failed to falsify the hypothesis that the existence of optional properties has a positive impact on surface level comprehension using a free recall experiment with 52 participants. Therefore, their hypothesis is still valid (not falsified). Burton-Jones & Weber [4] measure the “comprehension” with the indicator “recall accuracy”. The authors also failed to falsify the hypothesis that the existence of properties of relations negatively influences the comprehension of the model in a controlled experiment with 76 participants. Since the hypothesis was not falsified, it is still valid. Please note that model comprehension is measured with different indicators in the studies by Burton-Jones and Weber and Bodart et al. respectively. According to our 445 consistency rule 2 we cannot integrate the constructs but have to represent them separately (constructs C-3 and C-4 in Figure 4). Both papers measure “problem solving” by the indicator “accuracy”. Further on, both studies show that optional properties and properties of relations both have negative impacts on problem solving and provided empirical evidence for their claims by experimentation with 76 participants in the Burton-Jones and 96 participants in the Bodart et al. studies. The resulting set of the hypotheses is presented in Figure 4. Figure 4: Theory of a Conceptual Modeling Grammar Currently, we have explained the design research and the theoretical perspectives. In the next section we combine both perspectives by introducing the notion of design rationale. 3.3. Rationale Management Perspective Design Rationales (DR) are founded in argumentation theory, which states that an argument always contains four elements [21]: claims (C), grounds (D), warrants (W) and rebuttals (R). Claims are always made on the basis of the presented grounds, e. g. data or facts. The warrant links the claim with grounds. A rebuttal represents known exceptions of this argument (see Figure 5). When applying DR approaches to IT artifacts, the claim of an IT artifact is to have some utility, which is caused by its specific characteristics. While this claim is substantiated by experience in traditional design science approaches, we argue to use theoretical hypotheses. These cause-effect relationships are implemented as goal-means relations in IT artifacts and are, therefore, used as warrant for the design argument. The rebuttal in this setting is represented by hypotheses, which may contradict the warrant’s hypothesis (see Figure 5). Figure 5: Structure of design arguments [based on 3, pp. 44] Although the basic argumentation structure was implemented in many DR approaches [cf. 11 for an extensive review], these approaches extend and/or modify the Issue Based Information Systems (IBIS) approach, which we also apply here [10]. In IBIS design problems are represented by issues. As issues in IBIS represent agreed problems to be resolved they are best represented as grounds in Toulmin’s argumentation principle. Positions are assigned to issues and, thereby, claim to resolve 446 this issue (claims). In the subsequent discussion process, arguments can be brought forward to support or to rebut a position (warrant and rebuttal). According to our arguments, these positions should be linked to hypotheses to ensure their traceability to theoretical knowledge. When applying theories to design, the design researcher has to map requirements to “suitable” hypotheses. We define two consistency rules for this mapping: Consistency Rule 3: Only requirements and constructs with identical sets of indicators can be matched. Consistency Rule 4: Requirements can only be mapped to constructs which participate as effects in at least one hypothesis. Consistency rule 3 ensures that the requirement exactly matches the theoretical construct. We thereby assume that the indicators define the requirement and the theoretical constructs fully (consistency rules 1 and 2). Consequently, a requirement, which is matched to a theoretical construct with diverging sets of indicators, implies that the requirement and the theoretical constructs have different meanings. In other words, consistency rule 3 prevents that requirements are mapped to theoretical constructs with different meanings. Consistency rule 4 ensures that requirements are matched with the “correct side” of the hypothesis. This mapping is described in the following exhibit: Exhibit 3: In exhibit 1 we introduced the requirement “models should be easy to understand” (Rf-1) and “problems should be easy to solve with the models” (Rf-2). To map these requirements to the hypotheses of exhibit 2, we must find appropriate theoretical constructs, which share the same set of indicators. According to consistency rule 3, we can only map Rf-1 to the construct “surface level comprehension” and Rf-2 to the “problem solving” construct. Since both constructs are effects in at least one hypothesis, this mapping is valid (consistency rule 4). As argued above the warrant of an argument is represented by a hypothesis. More precisely the warrant is expressed by the hypothesis’ construct, which represents its cause. In addition, the warrant assigns values to all the construct’s indicators. These vales represent the design researcher’s decision on how to implement the construct in the latter IT artifact. Due to conflicting requirements, it may be possible that two different warrants exist for the same requirement. Warrants conflict with each other if and only if they assign different values to at least one indicator. This is expressed by the following consistency rule: Consistency Rule 5: A conflict is raised if and only if two warrants assign different values to at least indicator. Conflicts can be theoretically traced back to conflicting causes of different hypotheses. It means that the respective warrants cannot be implemented together in the final IT artifact. Additionally, such a conflict cannot be resolved by theory since it originates from conflicting requirements. The design researcher has to manually choose between the conflicting positions by prioritizing the requirements. The resolution of the conflict is embodied in the final IT artifact. This decision is described in the following exhibit: Exhibit 4: After the mapping of the requirements to the theoretical constructs, warrants can be formulated based on the hypotheses from exhibit 2. For instance, the research of Bodart et al. [1] indicates that avoiding optional properties in models enhances problem solving. Consequently, one way to achieve problem solving is to avoid optional properties in models. This fact is expressed by position P-1 (cf. Figure 6). Hence, the warrant assigns the value “false” to the indicator “diagrams with optional properties” to illustrate how the position will be considered in the design. However, we also want to achieve “surface level comprehension” and we know from theory that diagrams with optional properties help to attain this goal (P-3). Consequently, we assign the value 447 “true” to the indicator “diagrams with optional properties”. Now we can analyze the resulting conflict. Obviously, we cannot have diagrams with and without optional properties at the same time. So, we must decide whether to include the optional properties construct in the modeling grammar. To visualize this, we raise a conflict between the conflicting positions (I-1 in Figure 6). This conflict must be solved by the design researcher. As discussed above this decision cannot be guided by theory because it reflects contradicting requirements. According to our theory it is not possible to achieve surface level comprehension and problem solving with the means “optional properties” at the same time. In our example, the design researcher decides to avoid optional properties in the modeling grammar. This decision is documented by the IT artifact S-1. Figure 6: Rationale Management 3.4. Discussion In line with Walls et al. [25] we have argued that hypotheses should be used when designing IT artifacts. Furthermore, we have shown that the systematic usage of hypotheses implies that the hypotheses’ constructs and the requirements must have exactly the same granularity and scope. This granularity and scope is expressed via the set of indicators of theoretical constructs and requirements. A mismatch of requirements and theory can be traced back to the following four situations: 1. There is no theoretical construct that shares at least one indicator for one requirement. In this situation there is no applicable theory for the design in focus. 2. The theoretical constructs have more indicators than the respective requirement, so that the theory is more fine grained than the requirement. 3. In case the theoretical construct has fewer indicators than the requirement the theory is coarser grained than the requirement. 4. The requirement and the theoretical construct share some indicators and differ in other indicators so that the theory and the requirements are incompatible. In the situations two, three and four the design researcher has the choice to modify the requirement’s indicators to achieve the same granularity and scope than the theoretical construct. If the theoretical construct is more fine grained than the requirement, the design researcher may decide to add additional indicators to the respective requirement. In this way, theoretical knowledge informs design research and helps the design researcher to decide how to measure requirements. The value of such adapted IT artifact’s requirements has recently been demonstrated by Maiden [12]. With regard to the first situation, the design researcher may decide to proceed without a modification of the requirement’s indicators and, therefore, without theoretical support [2]. In this case the design researcher can always construct the IT artifact based on experience [18]. However, our 448 framework requires documenting implicit hypotheses used during the design process as well. In this case, hypotheses are a “side-product” of our proposed methodology. As requirements are specialized by indicators to allow for their measurement (see above) they can be directly mapped to a theoretical construct (effect, see consistency rule 3). The same can be said about the warrant, which the design researcher extracts from the IT artifact (cause). Consequently, the derived hypotheses result directly from the design work. After a successful evaluation of the IT artifact, the designer may hand the derived hypotheses over to an empirical researcher who tests these hypotheses. This two-way-exchange between theoretical and design knowledge facilitates the intertwining of design research and theoretical research. 4. Conclusion and Outlook In this paper we presented a methodical approach for substantiating and documenting design decisions with theories. The integration of references to theories in DR approaches enable the design researcher to anticipate the characteristics of the design before the artifact is instantiated. Even in the case of missing theories, our approach requires the design researcher to explicate his or her background knowledge as hypotheses. The evaluation of the results of theory-based artifacts may stimulate theory development and testing and provides a link between design research and theoretical research. Furthermore, our approach helps design researchers to trace, revise and enhance design decisions during design research processes. Our approach also clarifies the task of evaluating the design artifact by integrating theories into design and we can identify three types of evaluation [29]: 1. In output-oriented evaluation the design researcher tests whether the artifact has the required quality, i. e. whether the artifact is appropriately implemented. Thus, the objective is to determine the gap between the required and implemented characteristics of the artifact. Overall, output-oriented evaluation stimulates the improvement of the artifact itself. 2. In outcome-oriented evaluation the design researcher has to substantiate the claim of utility of the artifact, i. e. to show whether the IT artifact attains its goals. Failing to attain the goals can then be traced back to an inappropriate set of design arguments. Hence, outcome oriented evaluation shows how to improve the desired characteristics of the artifact. 3. However, if outcome-oriented evaluation shows that the chosen set of design arguments is inappropriate for attaining the goal, “… an anomaly has arisen and the [applied] theory is suspect” [27, p. 9]. Consequently, the theory used in design should be (re)evaluated to find out whether the theory is actually correct or whether the deviation from the design goal has another cause. In any case, the evaluation of theory-based artifacts creates data-sets that stimulate theory development and refinement. However, our approach also shows an important limitation of theorizing in design research: Theory-based design research requires theories with a similar granularity level to link requirements with constructs of theories. Although, we could find appropriate theories in the case of our example, suitable theories are not available for every design issue. Therefore, we enable the researcher to explicate his or her own hypotheses which may then be subject to empirical research. Furthermore, different construct definitions in different versions of theories or different replication scenarios complicate the use of such theories in design work. Here, methodological guidance is required to resolve such conflicts. However, these limitations do not corrode our approach – as they do not 449 conflict with its underlying assumptions – but provide an argument for a closer connection between the design research and the empirical research domains. 5. References [1] BODART, F. et al., Should Optional Properties Be Used in Conceptual Modelling? A Theory and Three Empirical Tests, in: Information Systems Research 12 (2001) 384-405. [2] BRIGGS, R. O., On theory-driven design and deployment of collaboration systems, in: International Journal of Human-Computer Studies 64 (2006) 573-582. [3] BROCKRIEDE, W.; EHNINGER, D., Toulmin on Argument: An Interpretation and Application, in: Quarterly Journal of Speech 46 (1960) 44-53. [4] BURTON-JONES, A.; WEBER, R., Understanding Relationships with Attributes in Entity-Relationship Diagrams, Proceedings of the 20th International Conference on Information Systems (ICIS 1999), Charlotte, NC, USA, 1999. [5] CHMIELEWICZ, K., Forschungskonzeptionen der Wirtschaftswissenschaft, C. E. Poeschel Verlag, Stuttgart, Germany, 1979. [6] FREEZE, R. D.; RASCHKE, R. L., An Assessment of Formative and Reflective Constructs in IS Research, in: Österle, H., Schelp, J.,Winter, R., (Eds.), Proceedings of the 15th European Conference on Information Systems (ECIS2007), June 7-9 2007, St. Gallen, Switzerland, University of St. Gallen, St. Gallen, 2007, pp. 1481-1492. [7] GREGOR, S., The Nature of Theory in Information Systems, in: MIS Quarterly 30 (2006) 611-642. [8] GREGOR, S.; JONES, D., The Anatomy of a Design Theory, in: Journal of the Association for Information Systems 8 (2007) 313-335. [9] HEVNER, A. R. et al., Design Science in Information Systems Research, in: MIS Quarterly 28 (2004) 75-105. [10] KUNZ, W.; RITTEL, H. W. J., Issues as Elements of Information Systems, Institute of Urban and Regional Development, University of California, Berkeley, CA, USA, 1970. [11] LOURIDAS, P.; LOUCOPOULOS, P., A Generic Model for Reflective Design, in: ACM Transactions on Software Engineering Methodology 9 (2000) 199-237. [12] MAIDEN, N., Servicing Your Requirements, in: IEEE Software 23 (2006) 14-16. [13] MARKUS, M. L.; MAJCHRZAK, A.; GASSER, L., A Design Theory for Systems that support emergent Knowledge Processes, in: MIS Quarterly 26 (2002) 179-212. [14] NEWELL, A.; SIMON, H. A., Human Problem Solving, Prentice-Hall, Englewood Cliffs, NJ, USA, 1972. [15] NUNAMAKER, J. F.; CHEN, M., Systems Development in Information Systems Research, in: Journal of Management Information Systems 7 (1991) 89-106. [16] REGLI, W. C. et al., A Survey of Design Rationale Systems: Approaches, Representation, Capture and Retrieval, in: Engineering with Computers 3/4 (2000) 209-235. [17] ROMME, A. G.; ENDENBURG, G., Construction Principles and Design Rules in the Case of Circular Design, in: Organization Science 17 (2006) 287-297. [18] SARKER, S.; LEE, A. S., Using a Positivist Case Research Methodology to Test Three Competing Theories-InUse of Business Process Reengineering, in: Journal of the Association for Information Systems 2 (2002) 1-74. [19] SCHERMANN, M.; BÖHMANN, T.; KRCMAR, H., A Pattern-based Approach for Constructing Design Theories with Conceptual Models, in: Österle, H., Schelp, J.,Winter, R., (Eds.), 15th European Conference on Information Systems (ECIS 07), University of St. Gallen, St. Gallen, Switzerland, 2007, pp. 1368-1379. [20] SIMON, H. A., The Sciences of the Artificial, The MIT Press, Cambridge, MA, USA, 1969. [21] TOULMIN, S., The Uses of Argument, Cambridge University Press, Cambridge, MA, USA, 1958. [22] VAISHNAVI, V.; KUECHLER, W., Design Research in Information Systems, 2004. [23] VAN AKEN, J. E., Management Research Based on the Paradigm of the Design Sciences: The Quest for FieldTested and Grounded Technological Rules, in: Journal of Management Studies 41 (2004) 219-246. [24] VERSCHUREN, P.; HARTOG, R., Evaluation in Design-Oriented Research, in: Quality & Quantity 6 (2005) 733-762. [25] WALLS, J. G.; WIDMEYER, G. R.; EL SAWY, O. A., Building an Information System Design Theory for Vigilant EIS, in: Information Systems Research 3 (1992) 36-59. [26] WAND, Y.; WEBER, R., Research Commentary: Information Systems and Conceptual Modeling -- A Research Agenda, in: Information Systems Research 13 (2002) 363-377. [27] WEBER, R., Toward A Theory of Artifacts: A Paradigmatic Base for Information Systems Research, in: Journal of Information Systems 1 (1987) 3-19. [28] WEBER, R., Conceptual Modelling and Ontology: Possibilities and Pitfalls, in: Journal of Database Management 14 (2003) 1-20. [29] WEISS, C. H., Evaluierungsforschung: Methoden zur Einschätzung von sozialen Reformprogrammen, Westdeutscher Verlag, Opladen, 1974. 450 BEURTEILUNGSKRITERIEN INTERNATIONALER FACHZEITSCHRIFTEN IM UMFELD DER WIRTSCHAFTSINFORMATIK Karl Kurbel, Ilja Krybus, Ivo Stankov1 Kurzfassung Veröffentlichungen in internationalen Fachzeitschriften tragen dazu bei, die Sichtbarkeit der Wirtschaftsinformatik außerhalb des deutschen Sprachraums zu verbessern. Sie erfolgen meist in Organen benachbarter Disziplinen wie „Information Systems“ und „Computer Science“. Die Diskussion in der WI-Community über die Kriterien, nach denen internationale Fachzeitschriften wissenschaftliche Beiträge beurteilen, und die Erfolgswahrscheinlichkeit bei Einreichungen gab den Anstoß zu einer empirischen Untersuchung. Gegenstand der Untersuchung sind die von 175 Zeitschriften angegebenen Beurteilungskriterien. Die über die Homepages der Zeitschriften kommunizierten Anforderungen an einzureichende Beiträge wurden inhaltsanalytisch ausgewertet. 1. Einleitung – Motivation für die Untersuchung In der Wirtschaftsinformatik wird zur Zeit verstärkt über die wissenschaftliche Orientierung, die Veröffentlichungskultur und die Positionierung des Fachs im internationalen Wissenschaftsgefüge diskutiert. Bei Veröffentlichungen werden die in Frage kommenden internationalen Publikationsorgane meist im Bereich „Information Systems“ (IS) vermutet. Information Systems versteht sich jedoch überwiegend als Disziplin, in der verhaltenswissenschaftlich geforscht und veröffentlicht wird. Das bevorzugte Forschungsinstrumentarium ist quantitativ-empirisch, mit starkem Gewicht auf Umfragen zu realen Phänomen und ihrer Erklärung mit Hilfe statistischer Methoden. Ein Großteil der Wirtschaftsinformatiker arbeitet hingegen gestaltungsorientiert und gewinnt neue Erkenntnisse häufig explorativ („construction and building approach“ im Sinne von Backlund [1]). Die Untersuchungen von Wilde und Hess [15] deuten darauf hin, dass die Mehrzahl der Forscher konstruktionsorientiert vorgeht. Dazu wird oft ein Prototyp entwickelt, mit dem die Machbarkeit der zugrunde liegenden Konzepte gezeigt wird. In der Definition des Profils der Wirtschaftsinformatik, auf die sich die Wissenschaftliche Kommission Wirtschaftsinformatik bereits 1993 verständigte [16], wird dieser Ansatz deutlich hervorgehoben: Die Wirtschaftsinformatik habe eine Gestaltungsaufgabe, und sie sei in diesem Sinne (auch) eine Ingenieurwissenschaft2. 1 2 Europa-Universität Viadrina Frankfurt (Oder) "Die Wirtschaftsinformatik ist weiterhin eine Ingenieurwissenschaft, da insbesondere die Gestaltung von IKS eine Konstruktionssystematik verlangt. ... Die Gestaltung verlangt nach der ingenieurwissenschaftlichen Erstellung von 451 Bei der Wahl eines internationalen Publikationsorgans zeigt sich nun das Dilemma, dass zwischen Wirtschaftsinformatik und Information Systems entscheidende Unterschiede bestehen – sowohl in den Forschungsgegenständen als auch insbesondere in den Forschungsmethoden [6]. Gutachter von IS-Zeitschriften und -Proceedings beurteilen Beiträge i.d.R. entsprechend dem verhaltenswissenschaftlichen Forschungsstil und messen dem methodischen Ansatz das höchste Gewicht bei – häufig auf Kosten des Innovationsgehalts, wie selbst der Herausgeber der Zeitschrift MIS Quarterly jüngst resümierte: Auch sehr gute Beiträge schaffen nicht die Gutachterhürde, wenn sie methodisch nicht den in der IS-Community hochgehaltenen puristischen Maßstäben entsprechen3 [14]. Informatiknähere internationale Zeitschriften scheinen dem konstruktivistischen Forschungsansatz, wie er in großen Teilen der Wirtschaftsinformatik verfolgt wird, näher zu kommen. In Rankings hoch bewertete Publikationsorgane sind z.B. von ACM (Association for Computing Machinery) und IEEE (Institute of Electrical and Electronics Engineers) herausgegebene Zeitschriften, in denen man häufig qualitativ hochstehende Wirtschaftsinformatik-Beiträge findet. Auf die viele Forscher interessierende Frage, nach welchen Kriterien internationale Organe Beiträge begutachten und bei welchen Zeitschriften die Forschungskultur der Wirtschaftsinformatik am ehesten Akzeptanz erwarten kann, gibt es nur meist nur vage Antworten. Um die Unsicherheit zu verringern und die weitere Diskussion in der WI-Community zu unterstützen, wurden 175 internationale Fachzeitschriften aus drei Bereichen auf ihre Begutachtungskriterien hin untersucht: (1) Information-Systems-Zeitschriften, weil sie in der Vergangenheit meist als Leitbild für die Internationalisierung der Wirtschaftsinformatik und in diesem Sinne vorrangig als für Veröffentlichungen anzustrebend angesehen wurden. (2) Computer-Science-Zeitschriften, weil die Informatik überwiegend als die Realität gestaltend eingestuft wird. In Veröffentlichungen ist es nicht unüblich, neue Methoden, Technologien und Systeme vorzustellen, auch explorativ, und innovative Entwicklungen zu beschreiben. (3) Engineering-Zeitschriften, weil im Selbstverständnis der Wirtschaftsinformatik der konstruktive Aspekt stark betont wird. Deshalb sollte zusätzlich untersucht werden, nach welchen Kriterien international anerkannte ingenieurwissenschaftliche Organe Fachartikel beurteilen. Nicht untersucht wird in diesem Beitrag, warum die Zahl der WI-Veröffentlichungen in internationalen Zeitschriften relativ niedrig ist. Eine derartige, allerdings auf IS bezogene Untersuchung haben Lyytinen et al. vorgelegt [8]. Der Beitrag ist wie folgt aufgebaut: Im nächsten Abschnitt wird das Vorgehen der Untersuchung beschrieben. Im dritten Abschnitt werden die erhobenen Beschreibungen der Akzeptanzkriterien qualitativ charakterisiert und nachfolgend vergleichend beschrieben. Der vierte Abschnitt gibt einige Schlussfolgerungen wieder. 2. Untersuchungsdesign Die Untersuchung folgt einem explorativen Ansatz – einer modifizierten Frequenzanalyse [11, 408ff]. Konzeptnennungen aus zuvor erhobenen Texten werden dabei in Kategorien binär kodiert, so dass über die Menge der Texte Nennhäufigkeiten ermittelt und Aussagen abgeleitet werden können. 3 Gestaltungshilfsmitteln (Methoden, Werkzeuge, Anwendungsprototypen) für den "Gestalter" in Wirtschaft und Verwaltung." [16] "(...) review approach #1, which I would posit is the current and dominating posture in top IS journals, stresses methodology at the expense of intellectual content." [14] 452 Für die Untersuchung wurden insgesamt 175 Eigendarstellungen von Fachzeitschriften und zugehörige Autoren-Instruktionen ausgewertet, die von den Herausgebern auf den Websites der Zeitschriften veröffentlicht wurden. Die Untersuchungsmenge setzt sich zusammen aus 50 Information Systems-Zeitschriften, 50 Computer Science-Zeitschriften sowie 75 Zeitschriften aus angrenzenden Ingenieursdisziplinen (Elektrotechnik/Elektronik, Maschinenwesen, Produktionstechnik, jeweils 25 Zeitschriften). Zu bemerken ist, dass die ingenieurwissenschaftlichen Zeitschriften, obwohl sie teilweise eng mit Wirtschaftsinformatik-Themen verknüpft sind, zumeist nicht unmittelbar als Medium für typische WI-Beiträge dienen. Um Aussagen ableiten zu können, die für international allgemein anerkannte Publikationsorgane gelten, wurden die untersuchten Zeitschriften aus der Grundgesamtheit der in internationalen Rankings aufgeführten Zeitschriften ausgewählt. Für Information Systems ist ähnlich wie für Betriebswirtschaftslehre (vgl. [4]) eine große Menge an selektiven Rankings verfügbar (vgl. [10]). Als zentrales Ranking wird häufig auf den Science Citation Index (SCI) verwiesen. Dieser steht allerdings in der Diskussion, da in der zugrunde liegenden Zitierungsanalyse Publikationen mit interdisziplinärem Charakter4 und die Relevanz der Zitierungen nur eingeschränkt berücksichtigt sind [7]. In den Bereichen Computer Science und Ingenieurwissenschaften scheinen allgemeine Journal-Rankings dagegen weniger beachtet zu werden. Hier wird stattdessen häufig der Einfluss individueller Beiträge, wie er beispielsweise durch die Zitierhäufigkeit in CiteSeer gemessen wird, zur Beurteilung einer Publikation verwendet. Dies berücksichtigend wurde als Grundlage für die Untersuchung ein Journal-Ranking eingesetzt (JournalRanking.com), das mittels Zitierungsanalyse (RPRS-Verfahren [7]) eine fachübergreifende Rangfolge von Zeitschriften anhand eines so genannten Impact Factors berechnet. • Für den Bereich Information Systems wurde abweichend vom RPRS-Ranking auf das konsolidierte Journal-Ranking von Saunders [10] zurückgegriffen. Dieses kombiniert einerseits als Meta-Ranking neun Rankings aus der IS-Disziplin. Andererseits besitzt es aufgrund der allgemeinen Zugänglichkeit auf den Webseiten der Association for Information Systems (AIS) hohe Popularität und ist für viele Autoren mitbestimmend bei der Auswahl eines Publikationsmediums. • Für Computer Science wurde das RPRS-Ranking mit Empfehlungen kombiniert, welche ausgehend von den USA und Kanada auf Webseiten verschiedener Universitäten aufgeführt sind und zunehmend als Referenz für bevorzugte Veröffentlichungsorgane dienen5. • Für die Ingenieurwissenschaften wurden die Zeitschriften in den o.g. Teildisziplinen getrennt ausgewertet und die Aussagen anschließend aggregiert. Im Rahmen der Diskussion der Ergebnisse wurden die am Aggregat getroffenen Aussagen in den Teildisziplinen separat überprüft. Für die Untersuchung wurden jeweils die top-n Zeitschriften der Disziplinen herangezogen. Für nicht mehr aktive oder nicht adäquat über Websites kommunizierte Zeitschriften (insgesamt: 6) wurden die jeweils nächstgerankten als Ersatz verwendet. Die Websites der so selektierten Zeitschriften wurden anschließend in der Reihenfolge der Nen4 5 Die Interdisziplinarität wird in der Wirtschaftsinformatik als Kernkompentenz angesehen [5]. Z.B. Illinois Institute of Technology (USA), Wayne State University (USA), University of Ottawa (Kanada), National Institute of Technology, Hamirpur (Indien), Huazhong University of Science and Technology (China), Intelligent Science Research Group, at Key Lab of IIP, ICT, CAS (China), National University of Singapore (Singapur), Nanyang Technological University (Singapur), The Chinese University of Hong Kong (Hong Kong, China). 453 nung in den Rankings mittels Suchmaschinen und Fachdatenbanken (u.a. Business Source Premier, IEEExplore) aufgesucht. Die in den Websites enthaltenen Informationen zu Zielstellung („Mission“), Publikationsprofil, Autoren-/Einreichungsrichtlinien, Herausgeberpolitik, Themen etc. wurden geordnet in Zeitschriftenprofilen als Textdateien erfasst und gespeichert. Ausgehend vom Erkenntnisziel der Untersuchung wurden themenneutrale Kategorien definiert, welche insbesondere eine Differenzierung der formulierten Anforderungen an den Forschungsansatz sowie an die Relevanz bzw. die methodische Stringenz („Relevance/Rigor“) ermöglicht. Nach einer Analyse der erfassten Zeitschriftenprofile wurden die vorab definierten Kategorien validiert. Als Kernkategorien dienten in der Untersuchung: • Die grundlegende inhaltliche Ausrichtung der Zeitschriften (Theorien/Methoden, Empirie, Praxis, Technologie, Synthesen), • Verfeinerungsstufen zu den Ausrichtungen Theorien/Methoden und Technologie, u.a. zur Ausdifferenzierung von deskriptiven, angewandten und experimentell/empirischen Schwerpunkten der Zeitschriften, • Explizite Anforderungen an die methodische Stringenz („Rigor“) sowie an die praktische (praktischer Nutzwert/Anwendbarkeit) und die akademische Relevanz (Erklärungsgehalt, Beitrag zum Verständnis bzw. zur Zusammenführung von Theorien etc.), • Anforderungen an die Aktualität und den Neuigkeitsgehalt der Beiträge. Die exakten Kategorien sind in den Abbildungen 1 bis 4 wiedergegeben. Des Weiteren wurden Daten zu den Zielgruppen, Herausgebern, Beziehungen zu spezifischen Communities und Fachgesellschaften erhoben. Die Zeitschriftenprofile wurden leitfadenbasiert durch mehrere unabhängige Auswerter separat voneinander kodiert. Eine Kategorie wurde je Beitrag als erfüllt bewertet, wenn mindestens eine zutreffende Äußerung im Zeitschriftenprofil enthalten war. Die kodierten Daten wurden anschließend zusammengeführt und inhaltliche Konflikte mit Hilfe einer bis dahin nicht einbezogenen Person in der Rolle des Mediators ausgeräumt. Der Mediationsprozess wurde mit zeitlichem Abstand zur ursprünglichen Kodierung der Daten durchgeführt. Anschließend wurden die relativen Nennhäufigkeiten ermittelt und die Daten statistisch analysiert. Ergänzend wurden stichprobenartig Beiträge der betrachteten Zeitschriften gesichtet, um getroffene Aussagen zu validieren. Nachfolgend werden zuerst qualitativ die Form und Inhalte der von den Zeitschriften kommunizierten Anforderungen bzw. Beurteilungskriterien erläutert. Im Anschluss daran werden Gemeinsamkeiten und Unterschiede zwischen ausgewählten Beurteilungskriterien identifiziert und beschrieben. Die dabei getroffenen Aussagen werden durch die erhobenen Daten quantitativ illustriert, nachdem sie auf statistische Signifikanz überprüft wurden. Dazu wurde getestet, ob die jeweils verglichenen relativen Häufigkeiten aus derselben Grundgesamtheit stammen können. Die in der Untersuchung vorliegenden Daten sind normativ ordinal skaliert (0 – "hat nicht" < 1 – "hat") und erwartungsgemäß nicht normal verteilt, wie durch den Kolmogorov-Smirnov-Test [13, S. 264] bestätigt wurde. Daher wurden anstelle des vergleichenden t-Tests für unabhängige Stichproben nicht-parametrische Kruskal-Wallis H-Tests (für den simultanen Vergleich aller drei Zeitschriftenkategorien) [2, S. 172] und Mann-Whitney U-Tests (für detaillierende paarweise Kategorienvergleiche) [12, S. 423ff] durchgeführt. Die Teststatistiken (χ² bzw. U) und statistischen Feh454 lerwahrscheinlichkeiten (p) werden im Folgenden ergänzend zu den Mittelwertschätzern (X) angegeben. Ohne gesonderte Nennung wird ein Signifikanzniveau von 0,9 (α=0,1) angelegt. 3. Ausgewählte Ergebnisse 3.1. Publizierte Beurteilungskriterien Die Darstellung der Beurteilungskriterien durch die Zeitschriften bzw. deren Herausgeber beinhaltet im Wesentlichen vier Gruppen von Informationen: (1) (2) (3) (4) Fachliche Positionierung und thematische Eingrenzung Formale Anforderungen an die Beiträge (Grobe) Erläuterung der Begutachtungsverfahren und Fachliche und formale Beurteilungskriterien i.e.S. Die thematische Eingrenzung (1) erfolgt i.d.R. durch Nennung von Fachdisziplin und einschlägigen Themen (z.B. in Form nicht abschließender Themenlisten), durch Bezugnahme auf die Interessen und Forschungsgegenstände der angesprochenen Community und selten durch Bezeichnung konkreter Abgrenzungs- bzw. Ablehnungskriterien. Die formalen Anforderungen (2) wie z.B. Anforderungen an den Umfang, die Sprache, die Gestaltung und Formatierung der Beiträge gehören zu den am stärksten ausgearbeiteten Informationen. Mit Ausnahme der Sprache und des damit verbundenen Diskursniveaus stellen sie als rein technische Anforderungen keine fachliche Hürde für die Publikation von Beiträgen dar. Die Informationsgruppen (3) und (4) überlappen zumeist inhaltlich und ergeben erst zusammengeführt ein hinreichend nachvollziehbares Bild bezüglich der angewendeten Beurteilungskriterien. In der Benennung der Beurteilungskriterien bleiben die Zeitschriften meistens vage. Es wird offenbar unterstellt, dass bereits die Themen die Natur der Beiträge bestimmen oder dass Beiträge intrinsischen, nicht gesondert geäußerten Regeln der adressierten Community oder ungeschriebenen Anforderungen der Zeitschrift folgen. Beispielhaft für diese Auslegung steht der Hinweis in Administrative Science Quarterly6, mit dem Autoren aufgefordert werden, sich einen Überblick über die veröffentlichten Beiträge der letzten zehn Jahrgänge zu verschaffen. Weiterhin sind die Beurteilungskriterien häufig stereotyp formuliert, wobei institutionelle oder organisatorische Interdependenzen für die Formulierungen offenbar eine Rolle spielen. Die wichtigsten Zeitschriften werden fast durchgängig von wenigen Verlagsgruppen (z.B. XElsevier=25%, XSpringer=11%) bzw. Fachverbänden (z.B. XIEEE=14%, XACM=9%) herausgegeben oder stehen solchen Fachverbänden zumindest sehr nahe (XVerbandsbindung=27%)7. In der Folge werden häufig gleichklingende Anforderungen an die Beiträge beschrieben, selbst wenn betont wird, dass Herausgeber oder Herausgebergremien als unabhängige Entscheider für die inhaltliche Gestaltung der Zeitschriften allein verantwortlich seien. 6 7 “Authors should look at what ASQ has published over the last 10 years, see if there are any precedents for the proposed submission, and, if there is even a glimmer of precedent, submit the work to ASQ.” (http://www.johnson. cornell.edu/publications/asq/contributors.html; letzter Abruf: 21.07.2008) Diese Schätzungen basieren auf den unmittelbar erhobenen Daten. Die Verlage und Vereinigungen wurden nicht weitergehend recherchiert. Die hier ausgewiesenen Mittelwertschätzer dürften daher die institutionellen und organisatorischen Interdependenzen eher unterschätzen. 455 3.2. Aktualität und Neuigkeitsgehalt Unabhängig von der untersuchten Zeitschriftengruppe gilt als zentrales Beurteilungskriterium, wenn ein akademisches Publikum angesprochen wird, dass reguläre Beiträge grundsätzlich originär sein sollen und einen signifikanten Erkenntnisgewinn mit sich bringen müssen (vgl. Abbildung 1). Dies gilt auch für Synthesen (Literaturzusammenfassungen, Reviews, Surveys u.a.m.), welche zumindest neue Aspekte in der betrachteten Thematik aufdecken sollen. Im Bereich Computer Science und in den Ingenieursdisziplinen ist die Originalitätsanforderung an die Beiträge höher als im Bereich Information Systems (XIS=34%, XCS=58%, XES=56%; χ²=7,43, p=0,024). Allerdings werden in den Ingenieursdisziplinen auch mehr lehrende Beiträge (z.B. Tutorials) angefragt als in Information Systems (XIS=16%, XCS=18%, XES=35%; χ²=7,23, p=0,027) und beide Beitragsarten (regulär, lehrend) stärker miteinander kombiniert. Zusammenfassende Beiträge bzw. Synthesen werden bevorzugt in den Information Systems publiziert (XIS=32%, XCS=2%, XES=16%; χ²=12,91, p=0,002). 34% Neu/originär 58% 56% 34% 34% Im Wesentlichen neu/originär Information Systems (IS) 27% Computer Science (CS) Engineering Sciences (ES) 16% 18% Andere (z.B. Tutorials) 35% 0% Abbildung 1 3.3. 10% 20% 30% 40% 50% 60% 70% Originalitätsanforderung (Aktualität und Neuigkeitsgehalt der Beiträge) Forschungsansatz und Inhalt Erwartungsgemäß ist im Bereich Information Systems das Interesse an verhaltenswissenschaftlichen Arbeiten größer als in den Ingenieursdisziplinen, in denen deutliche konstruktionswissenschaftliche Schwerpunkte gesetzt sind. Da diese Forschungsparadigmen in den von den Zeitschriften formulierten Anforderungen jedoch nicht explizit genannt werden, müssen ersatzweise Anforderungen an den theoretischen, methodischen oder empirischen Inhalt bzw. an den technologischen, lösungsbezogenen Inhalt als Indikatoren herangezogen werden (vgl. Abbildung 2 links und rechts). Bezüglich dieser Anforderungen lässt sich aus dem unmittelbaren Vergleich der Nennhäufigkeiten nicht sofort belegen, dass ein bestimmter Forschungsstil erwartet wird. Die relativen Häufigkeiten weisen keine signifikanten Unterschiede aus (Theorien/Methoden: XIS=58%, XCS=62%, XES=57%; χ²=0,29, p=n.s. (nicht signifikant); Technologien: XIS=46%, XCS=40%, XES=52%; χ²=4,12, p=n.s.). Die Verfeinerung dieser Anforderungen in Bezug auf die Form, wie Inhalte in den Beiträgen dargebracht werden sollen, gibt den paradigmatischen Unterschied jedoch wieder. So wird bei den ISZeitschriften die Ausarbeitung theoretischer Inhalte (XIS=50%, XCS=48%, XES=27%; χ²=8,94, p=0,011), die Anwendung von Theorien und Methoden (XIS=40%, XCS=20%, XES=28%; χ²=4,90, 456 p=0,086) sowie theoriebasierte empirische Arbeit (XIS=16%, XCS=6%, XES=1%; χ²=10,13, p=0,006) mehr gefragt als in den ingenieurwissenschaftlichen und Computer Science-Zeitschriften. Umgekehrt wird die Realisierung von abstrakten Konzepten (XIS=24%, XES=39%; U=1600, p=0,088), Prototypen und Demonstratoren (XIS=10%, XCS=28%, XES=16%; χ²=5,79, p=0,055) sowie der praktische Einsatz von Lösungen (XIS=18%, XCS=36%, XES=19%; χ²=6,14, p=0,046) vermehrt in den Ingenieursdisziplinen und der Computer Science gefordert (s. Abbildung 2 rechts). 58% 62% 57% Theorien/Methoden (allg.) 50% 48% Theoretische Arbeiten Theoriebasierte empirische Forschung 0% 40% 16% Abbildung 2 24% 42% 39% 10% 28% 16% 18% Praxiseinsatz von Lösungen 6% 1% Information Systems (IS) 52% Prototypen, Demos etc. 20% 28% 20% 40% Realisierungen (allg.) 27% Angewandte Theorien/Methoden 46% Technologien / Lösungen (allg.) 40% 60% Computer Science (CS) 80% 36% 19% 0% 20% 40% 60% Engineering Sciences (ES) links: Theorie-/Methodenorientierung nach Disziplin; rechts: Technologie-/Lösungsorientierung nach Disziplin In einer qualitativen stichprobenartigen Überprüfung8 fallen zusätzliche Unterschiede in den Auslegungen des Theoriebegriffs zwischen Information Systems auf der einen sowie Computer Science und Ingenieurswissenschaften auf der anderen Seite auf. Publikationsfähige Theorien und Methoden sind in Information Systems primär deskriptiv, erklärungsorientiert oder reflektierend (rückwärtsgerichtet). Es wird besonderer Wert auf die Formalisierung der Forschungsmethoden gelegt. In den beiden anderen Disziplinen richten sie sich dagegen an problemorientiertem Denken und dem Problemlösen als Kerngegenstand aus, so dass die Verwendbarkeit von Theorien und Methoden für die Konstruktion und Prognose (vorwärtsgerichtet) im Vordergrund stehen. Die Theorien und Methoden werden als Werkzeug verstanden und dementsprechend sachbezogen und kontextadaptiert statt abstrakt eingesetzt. Alle drei untersuchten Bereiche interagieren intensiv mit ihren Nachbardisziplinen. Dennoch ist die Interdisziplinarität der Beiträge als explizite Anforderung durch die Zeitschriften nicht als Selbstverständlichkeit anzusehen. Speziell die IS-Zeitschriften sind allerdings bemüht, diesem Aspekt Rechnung zu tragen, und laden vermehrt zur Einreichung fachübergreifender Beiträge ein (XIS=38%, XCS=18%, XES=19%; UIS,CS=1075, p=0,108 (n.s.); UIS,ES=1625, p=0,089). 8 Die Probe basiert auf Artikeln, die über Business Source Premier oder direkt auf den Webseiten der Zeitschriften zugänglich waren. Die erschöpfende Inhaltsanalyse der Artikel ist nicht Gegenstand dieser Untersuchung. 457 3.4. Relevance vs. Rigor Die über Information Systems [3] hereingetragene Kontroverse „Relevance vs. Rigor“ wird vorrangig dort weitergeführt, wie auch die häufige Verwendung dieser Begriffe in den Anforderungen der IS-Zeitschriften widerspiegelt (vgl. Abbildung 4). Im Vergleich der Zeitschriftengruppen dominieren Anforderungen an die Stringenz der Forschung bei Information Systems gegenüber eher relevanzorientierter Forschung in den Ingenieursdisziplinen und der Computer Science (Rigor: XIS=26%, XCS=12%, XES=5%; χ²=11,24, p=0,004), welche nach ihrem Selbstverständnis jedoch ebenfalls hohe Ansprüche an die fachliche Herleitung und Validierung der Ergebnisse stellen. Mit den relativ häufigen Nennungen von „Rigor“ in den IS-Zeitschriften wird daher der Forderung, die Forschung zu formalisieren, Nachdruck gegeben. Es ist weiterhin nennenswert, dass mehr Zeitschriften aus den Disziplinen Information Systems und Computer Science als aus dem Ingenieurswesen eine Notwendigkeit darin sehen, gesondert einzufordern, dass die in den Beiträgen beschriebenen Theorien/Methoden oder Konzepte praktisch erprobt wurden oder ihre Anwendbarkeit bzw. ihren Nutzwert anderweitig erwiesen haben (XIS=26%, XCS=28%, XES=12%; χ²=5,93, p=0,052, vgl. Abbildung 3)9. Bei den letztgenannten wird der Beweis oft direkt mit der Konstruktion erbracht, während für Theorien und Referenzmodelle aus Information Systems und Computer Sciences die Realisierung noch zusätzlich zu zeigen ist. Theorie/Methode durch Empirie erprobt 8% 14% 4% Theorie/Methode durch Lösung erprobt 14% 10% 8% Information Systems (IS) Lösung empirisch evaluiert 4% Computer Science (CS) 6% Engineering Sciences (ES) 1% Lösung theoretisch fundiert 14% 14% 3% 0% Abbildung 3 2% 4% 6% 8% 10% 12% 14% 16% Explizite Anforderungen an die Validierung/Erprobung von Theorien bzw. die Fundierung praktischer Lösungen Die Relevanzanforderungen lassen bei aggregierter Betrachtung keine adäquaten Folgerungen zu (Relevance10: XIS=38%, XCS=42%, XES=29%; χ²=2,21, p=n.s.). Bei Ausdifferenzierung des Relevanzkriteriums überwiegt jedoch die praktische Relevanz (d.h. die Anwendbarkeit auf reale Probleme, z.B. in der Wirtschaft) vor der akademischen Relevanz (Erklärungsgehalt, Potential von Theorien etc.) (UIS=1157, pIS=n.s., UCS=1025, pCS=0,039, UES=2437, pES=0,037). 9 10 Diese Statistik überprüft, ob mindestens einer der vier in Abbildung 3 dargestellten Validierungsansätze gesondert eingefordert wird. Die statistische Variable wurde durch Adjunktion der zugehörigen Werte gebildet. Die Statistik bezieht sich auf aggregierte Werte für die Relevanz. Es muss mindestens eine Nennung von akademischer oder praktischer Relevanz vorliegen. 458 Bei einer exemplarischen Überprüfung zeigt sich, dass die kommunizierten Beurteilungskriterien zudem verschiedentlich Abweichungen zu den Eigenschaften der tatsächlich veröffentlichten Beiträge aufweisen. In enger Auslegung finden sich z.B. bei den IS-Zeitschriften widersprüchliche Anforderungsformulierungen, welche für die Beiträge eine gleichermaßen hohe praktische Relevanz als auch hohe Formalisierung und Stringenz verlangen, obwohl beide zusammen kaum durch einen einzelnen Beitrag erfüllbar sind (und durch veröffentlichte Beiträge, die mit Blick auf „Rigor“ ausgearbeitet sind, i.d.R. auch nicht erfüllt werden). Beide Kriterien werden dennoch simultan genannt (46% der Rigor-Nennungen; 40% der Nennungen praktischer Relevanz). Demzufolge ist die Betonung der praktischen Relevanz selbst für solche IS-Zeitschriften typisch, die für die Publikation von stark „theorielastigen“ Beiträgen mit eher formalen statt praktisch anwendbaren Erkenntnissen bekannt sind. 26% Rigor/Stringenz 12% 5% Information Systems (IS) 22% Akademische Relevanz Computer Science (CS) 16% Engineering Sciences (ES) 12% 32% 34% Praktische Relevanz 25% 0% Abbildung 4 4. 5% 10% 15% 20% 25% 30% 35% 40% Rigor-Relevance-Anforderungen nach Disziplin Schlussfolgerungen Die Beurteilungskriterien in internationalen Fachzeitschriften fordern Originalität, fachspezifische Methodik, methodische Stringenz („Rigor“) und praktische Relevanz der Forschung. Wie hier gezeigt wurde, müssen Wirtschaftsinformatik-Beiträge diese von den Zeitschriften kommunizierten Anforderungen – je nach Zeitschrift mit unterschiedlicher Betonung – erfüllen, wenn sie im Begutachtungsverfahren bestehen wollen. Die anknüpfende Fragestellung, inwieweit diese Kriterien von den Fachgutachtern tatsächlich angewendet werden, erfordert weitere Untersuchungen. Darüber hinaus werden implizite Anforderungen unterstellt, die aus ungeschriebenen Normen der angesprochenen Community oder aus der Publikationshistorie der Zeitschrift selbst resultieren. Diese Normen zu erkennen und auf sie einzugehen, erfordert sowohl die gezielte Auseinandersetzung mit den methodischen Ansätzen und Erkenntniszielen der Community als auch eine gute Kenntnis der in diesen Zeitschriften bisher veröffentlichten Forschungsarbeiten. Darauf deutet auch durch die von [7] erkannte hohe Selbstzitierungsrate der Zeitschriften hin. Die vor der Untersuchung vermuteten Unterschiede bei der Beurteilung wissenschaftlicher Beiträge durch Information Systems- und Computer Science-Zeitschriften wurden durch die Untersuchung bestätigt. Außerdem zeigte sich, dass in den Ingenieurwissenschaften die Konstruktion von Problemlösungen relativ bevorzugt wird, worauf im Diskurs zum Gegenstand der Wirtschaftsinformatik häufig Bezug genommen wird. 459 Bei der Wahl geeigneter internationaler Publikationsorgane stehen Forscherinnen und Forscher aus der Wirtschaftsinformatik weiterhin vordergründig vor einer Entweder-Oder-Entscheidung zwischen IS- und Computer Science-Zeitschriften. Dahinter verbirgt sich allerdings die grundsätzlichere Frage, nach welchem Forschungsparadigma die eigentliche Forschungsarbeit durchgeführt wird. Je nach Art des wissenschaftlichen Ansatzes kommen dann entweder Zeitschriften aus der einen oder aus der anderen Kategorie in Betracht. Um die Annahmechancen zu verbessern, kann die eigene Forschung (vgl. [15], [9]) oder die Präsentation der Forschungsleistungen an die Methodik der durch die Zeitschriften adressierten Community angepasst werden. Ein Weg zur Verbindung der unterschiedlichen Ansätze könnte darin bestehen, die methodischen Gerüste aus Information Systems zur theoretischen Fundierung der entwickelten Lösungen heranzuziehen oder die Folgen der entwickelten Lösungen mit verhaltenswissenschaftlichen Methoden zu überprüfen. Immerhin bietet die gesonderte Aufforderung mancher IS-Zeitschriften, in einem Beitrag auch die Relevanz zu zeigen, eine weitere Chance, Forschungsergebnisse der klassischen Wirtschaftsinformatikforschung international publik zu machen. Literatur [1] Backlund, P.: On the Research Approaches Employed at Recent European Conferences on Information Systems (ECIS 2002 – ECIS 2004); in: Proceedings of 13th European Conference on Information Systems (ECIS 2005), Information Systems in a Rapidly Changing Economy, Regensburg 2005 (on CD ROM). [2] Chalmer, B.J.: Understanding Statistics; New York: Marcel Dekker; 1987. [3] Davenport, T.H.; Markus, M.L.: Rigor vs. Relevance Revisited: Response to Benbasat and Zmud; in: MIS Quarterly 23 (1999) 1, S. 19-23. [4] Harzing, A.-W.: Ranking Journals in Business Management: A Statistical Analysis of the Harzing Dataset; in: European Journal of Information Systems 16 (2008). 4, S. 303-316. [5] Heinzl, A.; König, W.; Hack, J.: Erkenntnisziele der Wirtschaftsinformatik in den nächsten drei und zehn Jahren; in: Wirtschaftsinformatik 43 (2001) 3, S. 223-233. [6] Kurbel, K.: Internationalisierung der Wirtschaftsinformatik; in: Jung, R., Myrach, T (Hrsg.), Quo Vadis Wirtschaftsinformatik?, Wiesbaden: Gabler 2008, S. 83-94. [7] Lim, A.; Ma., H.; Wen, Q.; Xu, Zh.; Cheang, B.: Distinguishing Citation Quality for Journal Impact Assessment; Version 11/2007, angenommen von Communications of ACM; http://www.journal-ranking.com/ranking/web/content/whitepapers.html; letzter Zugriff: 21.07.2008. [8] Lyytinen, K.; Baskerville, R.; Iivari, J.; Te'eni, D.: Why the old world cannot publish? Overcoming challenges in publishing high-impact IS research. In: European Journal of Information Systems, 16 (4), S. 317-326. [9] Nicolai, A.: Der „trade-off“ zwischen „rigour“ und „relevance“ und seine Konsequenzen für die Managementwissenschaften; in: Zeitschrift für Betriebswirtschaft 74 (2004) 2, S. 99-118. [10] Saunders, C.: MIS Journal Rankings (IS-World); http://www.isworld.org/csaunders/rankings.htm; letzter Zugriff: 21.07.2008. [11] Schnell, W., K. Hill, E. Esser: Methoden der empirischen Sozialforschung; 7. Aufl.; München: Oldenbourg; 2005. [12] Sheskin, D. J.: Handbook of Parametric and Nonparametric Statistical Procedures; Chapman & Hall / CRC Press, 3rd ed.; 2004. [13] Stevens, J.: Applied Multivariate Statistics for the Social Sciences; Mahwah, NJ: Lawrence Erlbaum Associates; 2002. [14] Straub, D.W.: Editor's Comments: Type II Reviewing Errors and the Search for Exciting Papers; in: MIS Quarterly 32 (2008) 2, S. v-x. [15] Wilde, T., Hess, T.: Forschungsmethoden der Wirtschaftsinformatik – Eine empirische Untersuchung; in: Wirtschaftsinformatik 49 (2007) 4, S. 280-287. [16] Wissenschaftliche Kommission Wirtschaftsinformatik (WKWI): Profil der Wirtschaftsinformatik; in: Wirtschaftsinformatik 36 (1994) 1, S. 80-81. 460 RECHTSFRAGEN, GEISTIGES EIGENTUM Zu dem Generalthema „Business Services“ ergibt sich eine große Bandbreite an rechtlichen Fragestellungen, für die hier Schwerpunkte ausgewiesen werden sollen, ohne aber andere Themenvorschläge auszuschließen. Dazu gehören Fragen des geistigen Eigentums, des Vertragsschlusses, des Verbraucherschutzes sowie der kartellrechtlichen und datenschutzrechtlichen Rahmenbedingungen, jeweils mit unterschiedlichen Schwerpunkten. Ergänzend sind auch Aspekte des öffentlichen Rechts zu beachten. Dabei geht es zum einen um die derzeit geltenden rechtlichen Rahmenbedingungen und die Identifikation eines evtl. Reformbedarfs, zum anderen aber auch um die Wechselwirkungen zwischen Recht und Technik im Sinne einer frühzeitigen Abstimmung bei der Entwicklung neuer Technologien und Geschäftsprozesse. Leitungsgremium: Walter Blocher, Universität Kassel Ulrich Hasenkamp, Philipps-Universität Marburg Andreas Wiebe, Wirtschaftsuniversität Wien (Federführender) Programmkomitee: Robert Briner, CMS von Erlach Henrici, Zürich Thomas Dreier, Universitaet Karlsruhe Wolfgang Freund, DLA Weiss-Tessbach, Wien Georgios Gounalakis, Philipps-Universität Marburg Rainer Knyrim, Preslmayr Rechtsanwaelte, Wien Ursula Widmer, Dr. Widmer & Partner, Rechtsanwälte, Bern AUSWIRKUNGEN EXTERNER KONTROLLMECHANISMEN AUF DIE GESTALTUNG UND IMPLEMENTIERUNG VON ERP-SYSTEMEN Axel Winkelmann, Malte Stockmann, Jörg Becker1 Kurzfassung Der betriebliche Einsatz von Systemen zum Enterprise Resource Planning (ERP) muss unter Beachtung externer Rahmenbedingungen erfolgen. Im vorliegenden Beitrag werden mit den Vorschriften zu den „Grundsätzen zum Datenzugriff und zur Prüfbarkeit digitaler Unterlagen“ (GDPdU) und dem „Sarbanes Oxley Act“ (SOX) zwei hierfür relevante Regelwerke vorgestellt und deren Auswirkungen auf die konkrete Ausgestaltung von ERP-Systemen untersucht, um Gestaltungsempfehlungen für ERP-Anwender zu entwickeln. Ein darauf basierender Vorschlag zur Ergänzung der Rechteverwaltung, insbesondere im Bereich der Anwendungs-zu-Anwendungs-Kommunikation SOA-basierter ERP-Systeme, schließt den Beitrag ab. 1 Einführung Bedingt durch den technologischen Fortschritt und damit einhergehende gestiegene IT-Durchdringung wird in zahlreichen Unternehmen ein großer Anteil der Geschäftsprozesse elektronisch unterstützt. Eine besondere Bedeutung kommt den Enterprise Resource Planning (ERP)-Systemen zu, die den Anspruch erheben, möglichst alle Geschäftsprozesse integriert abzubilden. Bei der Ausgestaltung solcher Systeme müssen zunehmend rechtliche Vorgaben beachtet werden [1]. Diese Compliance-Anforderungen ergeben sich zum einen aus nationalen Vorschriften wie beispielsweise den Grundsätzen zum Datenzugriff und zur Prüfbarkeit digitaler Unterlagen (GDPdU) der Bundesfinanzverwaltung, dem Gesetz zur Kontrolle und Transparenz im Unternehmensbereich (KonTraG) oder dem Corporate Governance Kodex [13]. Zum anderen lassen sich Compliance-Anforderungen auch aus Vorschriften aus dem ausländischen Rechtsraum herleiten, welche sich indirekt auf deutsche Unternehmen auswirken. In diese Kategorie kann z. B. der Sarbanes Oxley Act (SOX) eingeordnet werden [15]. Am Beispiel der GDPdU und des SOX werden im vorliegenden Beitrag die Auswirkungen von derartigen Anforderungen auf die Gestaltung von ERP-Systemen betrachtet. Die durch die Platzbeschränkung bedingte exemplarische Auswahl der GDPdU erfolgte auf Grund ihrer herausragenden Bedeutung und Relevanz für alle buchführenden deutschen Unternehmen. Der SOX wird thematisiert vor dem Hintergrund seiner Auswirkungen auf alle Unternehmen mit Zugang zu den US-Kapitalmärkten sowie seiner Signalwirkung für entsprechende europäische und 1 European Research Center for Information Systems (ERCIS) der Universität Münster. 463 damit auch direkt in Deutschland geltenden Regelungen („Euro-SOX“) [15]. Die Analyse erfolgt mit dem Ziel, eine Gestaltungsempfehlung für ERP-Systeme und moderne Architekturen u. a. im Bereich der Service-orientierten Architekturen (SOA) strukturiert zu erörtern und durch ein entsprechendes Datenmodell zu ergänzen. Diese grundlegende Betrachtung ist vor allem vor dem Hintergrund einer zunehmenden Abkehr von monolithischen Architekturen hin zu best-of-breed- oder web-service-orientierten Unternehmenssoftwareansätzen [1] von hoher Relevanz. 2 Grundlagen 2.1 ERP-System Der Begriff „Enterprise-Resource-Planning-System“ bezeichnet eine integrierte, anpassbare Anwendungssoftware zur Planung und Kontrolle von Ressourcen und Abläufen eines Unternehmens. Ihr Ziel ist eine möglichst umfassende Integration aller betrieblichen Anwendungsbereiche. Sie unterstützt die Kernprozesse der Wertschöpfung in den Bereichen Einkauf, Lagerhaltung, Produktion und Vertrieb sowie insbesondere auch die Supportprozesse im Personal- und Rechnungswesen. Charakteristisch ist die Verwendung einer gemeinsamen Datenbasis für alle o. g. Prozesse. Auf dem gemeinsamen Datenbestand operieren mehrere miteinander integrierte Teilsysteme zur Unterstützung der Prozesse in den jeweiligen unterschiedlichen Unternehmensbereichen [1]. Traditionelle ERP-Systeme weisen meist eine monolithisch geprägte Anwendungsarchitektur auf. Sie ermöglichen somit innerhalb des einsetzenden Unternehmens eine nahtlose Prozessintegration zwischen verschiedenen Unternehmensbereichen [20]. An den Schnittstellen zu Lieferanten und Kunden treten allerdings oft Medienbrüche auf. Um zwischenbetriebliche Kooperationen im Sinne des Supply Chain Management [19] besser zu unterstützen, kommt es daher unter dem Schlagwort ERP II zur Entwicklung einer neuen Generation von ERP-Anwendungen, die klassische ERPSysteme um Funktionen zur Unterstützung unternehmensübergreifender Prozesse erweitern [16] . Technische Basis für ERP II-Systeme sind serviceorientierte Architekturen (SOA) [9]. Die Gesamtfunktionalität des Systems wird in Form eines Netzwerks von lose gekoppelten Services bereitgestellt. Die Services konzentrieren sich dabei jeweils auf spezielle Teilaufgaben und sind eigenständig nutzbar. Nach außen verfügen sie über eine standardisierte Schnittstelle [2], [16]. Zur Unterstützung eines konkreten Geschäftsprozesses werden die Services flexibel kombiniert („Service-Orchestrierung“). Zur Implementierung der Services kommen v. a. Webservices zum Einsatz; zur Service-Orchestrierung werden die Geschäftsprozesse in Sprachen wie der Business Process Execution Language (BPEL) beschrieben. Dabei wird von Application-to-Application-Kommunikation Gebrauch gemacht: Die beteiligten Services tauschen ohne manuellen Eingriff die benötigten Daten aus. Services können sowohl intra- als auch interorganisational bereitgestellt werden. 2.2 Kontrollmechanismen mit Bezug zu IT-Systemen 2.2.1 Nationaler Rahmen in Deutschland am Beispiel der GDPdU Das sogenannte Steuersenkungsgesetz vom 23.10.2000 regelt die Zugriffsrechte der Finanzverwaltung auf die EDV-basierten Daten sämtlicher steuerpflichtigen deutschen Unternehmen [4]. Mit Inkrafttreten der geänderten Abgabenordnung (AO) zum 01.01.2002 wird ergänzend zu den bisherigen Vorschriften das Recht eingeräumt, im Rahmen einer Außenprüfung „die mit Hilfe eines Datenverarbeitungssystems erstellte Buchführung des Steuerpflichtigen durch Datenzugriff zu prüfen“ [13]. Die Vorschriften tragen der Tatsache Rechnung, dass immer mehr kaufmännische und steuerrelevante Dokumente originär in digitaler Form anfallen. 464 Ergänzend zu den gesetzlichen Regelungen hat das Bundesministerium der Finanzen am 16.07. 2001 die „Grundsätze zum Datenzugriff und zur Prüfbarkeit digitaler Unterlagen“ (GDPdU) veröffentlicht [12]. Hierbei handelt es sich um eine Gesetzesinterpretation, die zwar für nachgeordnete Dienststellen der Finanzverwaltung verbindlich, allerdings für Unternehmen und Finanzgerichte nicht rechtlich bindend ist [4]. Einzelne Regelungen greifen dabei die bereits 1995 veröffentlichten Grundsätze ordnungsmäßiger DV-gestützter Buchführungssysteme (GoBS) [11] auf und ergänzen diese. In der Praxis zeigte sich, dass die GDPdU große Interpretationsspielräume bieten, die für Unklarheiten bei Unternehmen und Prüfern sorgen. Das BMF hat daher mehrfach einen Frage- und Antwortkatalog zur Explizierung der Regelungen veröffentlicht, zuletzt am 23.01.2008 [6]. 2.2.2 Internationaler Rahmen am Beispiel des Sarbanes Oxley Act Als Reaktion auf die Bilanzskandale um Firmen wie Enron, Xerox und Worldcom und zur Verbesserung von Qualität und Verlässlichkeit der Rechnungslegung wurde in den USA am 30.07.2002 der Sarbanes Oxley Act of 2002 (SOX) [17] verabschiedet [15]. Das Gesetz befasst sich im Wesentlichen mit Aspekten der Unternehmensführung und Geschäftsethik. Darunter sind auch Regelungen, die sich insbesondere auf die Ausgestaltung der IT-Systeme auswirken. So verpflichtet Section 302 des SOX bestimmte Mitglieder des Vorstandes eines Unternehmens zur Abgabe von eidesstattlichen Erklärungen über die Richtigkeit der Angaben in den Berichten an die Aufsichtsbehörden und zur rechtzeitigen Offenlegung wichtiger unternehmensrelevanter Ereignisse. Section 404 sieht weiterhin die Einrichtung eines internen Kontrollsystems zur Finanzberichterstattung vor, über dessen Einsatz und Effektivität regelmäßig Rechenschaft abgelegt werden muss. Dadurch sollen Investoren vor falschen oder unzureichenden Informationen geschützt werden. Um die Publikations- und Rechenschaftsverpflichtungen adäquat erfüllen zu können, ist die Unternehmensführung auf verlässliche Daten aus den unternehmensinternen IT-Systemen, insbesondere dem ERP-System, sowie die dokumentierte anforderungsgerechte Umsetzung der internen Kontrollsysteme angewiesen. Verbindlich sind die Vorschriften des SOX für alle Unternehmen, die der Überwachung durch die US-Börsenaufsicht unterliegen [15]. Dazu zählen alle Unternehmen, deren Wertpapiere an den amerikanischen Wertpapierbörsen gehandelt oder anderweitig öffentlich angeboten werden. Auch deren Tochtergesellschaften im Ausland sind von den Regelungen betroffen. Somit hat der SOX auch direkte Auswirkungen auf zahlreiche deutsche Unternehmen. 3 Untersuchung der Auswirkungen von GDPdU auf ERP-Systeme 3.1 Relevanz der GDPdU für ERP-Systeme Die GDPdU erweitern die Prüfungsmöglichkeiten, welche den Betriebsprüfern der Finanzverwaltung im Rahmen von Außen- und Zollprüfungen zur Verfügung stehen, um digitale Auswertungsmöglichkeiten. Betroffen von der zusätzlichen Zugriffsmöglichkeit sind steuerliche relevante originär digital vorliegende Daten. Von der steuerlichen Relevanz ist immer dann auszugehen, wenn die Daten die Grundlage für eine vermögens- oder ertragswirksame Buchung in der Finanzbuchhaltung des Unternehmens bilden. Als „originär digital vorliegend“ gelten Daten und Dokumente dann, wenn sie vom zu prüfenden Unternehmen mittels der eigenen Computersysteme selbst erzeugt oder diesem in digitaler Form zugesandt wurden. Steuerrelevante Daten fallen in vielen Computersystemen an. Explizit nennen die GDPdU die Anwendungen der Finanz-, Lohn- und Anlagenbuchhaltung. Darüber hinaus können sich solche Daten auch befinden in: Fakturierung und Materialwirtschaft (Ausgangsrechnungen, Lagerprotokolle, Artikelpreise etc.), Kosten- und Leistungsrechnung (Ermittlung von Herstellkosten, Kalkulation von Verrechnungspreisen etc.) oder Personalwirtschaft (Arbeitszeiterfassung etc.). Eine Abgrenzung der 465 konkret anfallenden steuerrelevanten Daten muss jeweils im Einzelfall unternehmensspezifisch vorgenommen werden. Wie die Beispiele bereits gezeigt haben, wird ein großer Teil dieser Daten typischerweise in ERP-Systemen verwaltet, sodass sich eine GDPdU-konforme Implementierung der Geschäftsprozesse beim Einsatz eines ERP-Systems direkt auf dessen Gestaltung auswirkt. 3.2 Datenzugriff durch die Finanzverwaltung 3.2.1 Zugriffsrechte der Finanzverwaltung Die GDPdU definieren drei Arten des Datenzugriffs: Unmittelbarer Datenzugriff (Z1) Beim unmittelbaren Datenzugriff hat der Betriebsprüfer der Finanzverwaltung vor Ort direkten Zugang zu den steuerrelevanten Daten des zu prüfenden Unternehmens [11, Abschnitt 1.1.a)]. Hierfür werden ihm die vorhandene Hard- und Software zur Verfügung gestellt. Der Zugriff umfasst das Lesen, Filtern und Sortieren der Daten, ggf. unter Nutzung vorhandener Auswertungsmöglichkeiten. Eine Installation von spezieller Prüf-Software, eine Übertragung von Daten auf Medien oder Geräte des Betriebsprüfers oder ein Fernzugriff auf die relevanten Daten erfolgt ausdrücklich nicht. Mittelbarer Datenzugriff (Z2) Beim mittelbaren Datenzugriff nimmt das zu prüfende Unternehmen (ggf. ein von diesem Beauftragter Dritter) auf Veranlassung des Betriebsprüfers selbst die Auswertung vor, indem es die vorhandenen Auswertungsmöglichkeiten der eingesetzten kaufmännischen Software nutzt [11, Abschnitt 1.1 b)]. Im Rahmen der Verhältnismäßigkeit (abhängig von der Betriebsgröße) müssen zu diesem Zweck während des Zeitraums der Prüfung Mitarbeiter abgestellt werden. Datenträgerüberlassung (Z3) Bei der Datenträgerüberlassung erhält der Betriebsprüfer auf Anforderung (ggf. einen Auszug) der relevanten Daten des Prüfungszeitraums in Form eines Datenträgers [11, Abschnitt 1.1 c)]. Die Daten werden hierzu aus den entsprechenden Softwaresystemen exportiert. Zur Rekonstruktion durch den Prüfer müssen dabei neben den reinen Nutzdaten auch Informationen über die Struktur der exportierten Daten in einem möglichst maschinell auswertbaren Format bereitgestellt werden. Die überlassenen Datenträger werden vom Betriebsprüfer auf Computern der Finanzverwaltung ausgewertet. Hierbei kommen auch spezielle Datenanalyse-Werkzeuge zum Einsatz. Nach der Prüfung werden die überlassenen Datenträger gelöscht oder zurückgegeben. Umfang der Prüfung Gemäß den Vorgaben der AO müssen die steuerrelevanten Daten zehn Jahre vorgehalten werden. Prinzipiell können im Rahmen einer elektronischen Außenprüfung daher Daten aus dem Zeitraum angefordert werden. Für Daten, die vor 2002 archiviert wurden, gelten Übergangsregelungen. 3.2.2 Aktuelle Ausgestaltung des Datenzugriffs Der Prüfer kann grundsätzlich die Art des Zugriffs auf die Daten frei bestimmen und dabei auch unterschiedliche Verfahren kombinieren. Dabei ist die Verhältnismäßigkeit zu berücksichtigen. Die Analyse der durch Datenträgerübertragung erhaltenen Daten werden bundeseinheitlich mittels den Software-Tools „IDEA“ und „AIS TaxAudit“ der Firma Audicon ausgewertet. Dabei handelt es sich um eine Werkzeug-Sammlung zur statistischen Datenanalyse bzw. einer Makro-Sammlung zur Automatisierung von bestimmten Prüf-Mustern, die auf dem Gebiet der Wirtschaftsprüfung weit verbreitet sind. Die Übertragung der Daten zwischen den Quellsystemen des Unternehmens und den Computern der Prüfer erfolgt ausschließlich über Datenträger. Als Export-Format für die Quellda- 466 ten werden diverse Datenformate unterstützt (ASCII-Text-Listen, verschiedene Office-Dateiformate, auch eine Datenbankschnittstelle steht zur Verfügung). Für die Speicherung der zusätzlich geforderten Meta-Daten existiert ein Beschreibungsstandard in Form eines XML-Derivats [5]. 3.3 GDPdU-konforme Ausgestaltung von ERP-Systemen 3.3.1 Archiv-Systeme Bei der GDPdU-konformen Gestaltung eines ERP-Systems müssen alle für den elektronischen Zugriff durch die Finanzverwaltung relevanten Daten über den kompletten vorgeschriebenen Archivierungszeitraum hinweg gespeichert werden. Die Aufbewahrungsfristen werden in § 147 der AO geregelt: So sind Bücher, Aufzeichnungen, Buchungsbelege und Jahresabschlüsse zehn Jahre lang aufzubewahren, während Handels- und Geschäftsbriefe sowie sämtliche weiteren steuerrelevanten Unterlagen über einen Zeitraum von sechs Jahre vorgehalten werden müssen. Die Anforderungen des Datenzugriffs gemäß GDPdU sind erfüllt, solange alle Daten des festgesetzten Prüfungszeitraums im ERP-System recherchiert und ausgewertet sowie auf einen externen Datenträger exportiert werden können. In der Praxis fallen aber je nach Unternehmensgröße so viele steuerrelevante Daten an, dass regelmäßig Vergangenheitsdaten aus dem operativen System ausgelagert werden müssen, um dessen Leistungsfähigkeit zu erhalten. In großen Unternehmen besteht u. U. der Bedarf nach unterjähriger Auslagerung [3]. Die Auslagerung von Teilen des Datenbestandes wird besonders problematisch, wenn die ERP-Lösung eines Unternehmens in Form einer Service-orientierten Architektur konzipiert ist. Die dort ohnehin bestehende Komplexität auf Grund der verteilten Datenhaltung wird erhöht. In solchen Fällen kommt die Ergänzung des ERP-Systems um ein elektronisches Archiv in Betracht. Darunter wird hier ein Anwendungssystem verstanden, das der langfristigen und sicheren Aufbewahrung von Daten dient [14]. Es stellt dabei die Unveränderlichkeit der eingelagerten Daten (Revisionssicherheit) und deren schnelle Auffindbarkeit bei Bedarf sicher. Ein solches System besteht i. d. R. aus mehreren Komponenten [14]. Das Archivmanagement-System steuert die (automatisierbare) Ein- und Auslagerung der archivierungspflichtigen Daten und stellt Suchfunktionalitäten bereit. Dazu greift es auf einen ggf. datenbankgestützten Index zurück. Die zu archivierenden Datenbestände selbst werden im Speichersystem abgelegt. Je nach Ausgestaltung kommen dabei z. B. WORM-Medien (write-once-read-many) zum Einsatz. Die Finanzverwaltung lässt die Archivierung von Daten prinzipiell zu, fordert aber für die archivierten Daten „in quantitativer und qualitativer Hinsicht äquivalente“ Auswertungsmöglichkeiten für Produktions- und Archivsystem [6, Frage III, 11]. Die vielfältigen Auswertungsmöglichkeiten von aktuellen ERP-Systemen sind aber in Archivsystemen konzeptbedingt typischerweise nicht vorgesehen [3]. Die Archivdaten müssten also zu Auswertungszwecken in das Produktivsystem zurück übertragen werden. Dies ist jedoch in den seltensten Fällen wirtschaftlich, wenn nicht gar technisch unmöglich (auf Grund von Inkompatibilitäten wegen zwischenzeitlich geänderter Datenstrukturen im Produktivsystem, Konflikten mit geänderten Stammdaten etc.). Um den Forderungen der GDPdU zu entsprechen, müsste ein Archiv also um Auswertungsmöglichkeiten ergänzt werden. Die Notwendigkeit zur Ausstattung des Archivs mit „äquivalenten“ Auswertungsmöglichkeiten kann jedoch kritisch gesehen werden, da die technische Umsetzung der Anforderung auf Grund des damit verbundenen Aufwandes unverhältnismäßig erscheint [3], [10]. Die IT-Branchenverbände BITKOM und VOI sind der Meinung, dass die Ergänzung des Archivs um eine Exportschnittstelle für das IDEA-Datenformat (zumindest nach konkreter Prüfung im Einzelfall) geeignet ist, um den gesetzlichen Anforderungen zu entsprechen [3], [4]. Ein Betriebsprüfer hätte so in jedem Fall die Möglichkeit, die Standard-Auswertungsverfahren der Finanzverwaltung mittels der entsprechenden Software-Werkzeuge durchzuführen. In Anlehnung an [10] schlagen wir einen GDPdU-konformen Prozess zur Datenübernahme in ein digitales Archiv folgendermaßen vor: 467 1. Periodengerecht werden die steuerrelevanten Daten aus dem ERP-System extrahiert. Die Speicherung dieser Daten erfolgt im IDEA-Format. 2. Die exportierten Daten werden an das Archivsystem übergeben. 3. Das Archivsystem indiziert die Daten und nimmt ggf. eine Versionierung vor, falls die gleichen Daten gewollt oder fehlerhaft mehrfach übertragen werden. 4. Es erfolgt die Ablage der Daten im Speicher des Archivsystems. Die Korrektheit der Einlagerung wird automatisch überprüft. Eine Protokollierung der Vorgänge erfolgt parallel. Sollen archivierte Daten ausgewertet werden, wird eine Suchanfrage an das Archivsystem gestellt. Die Suchergebnisse können im IDEA-Format geladen werden, sodass ein Datenzugriff nach Art Z3 möglich ist. Steht ein universelles Auswertungsprogramm mit der Mächtigkeit der Finanzverwaltungssoftware IDEA zur Verfügung, das direkt auf das Archiv zugreifen kann, ist ein Zugriff nach Z1 – Z3 über ein einziges, integriertes System möglich. 3.3.2 Spezielle Nutzerrollen für Prüfer Beim Z1-Zugriff auf die Daten des zu prüfenden Unternehmens arbeitet der Prüfer direkt mit dem ERP-System. Er benötigt daher zwecks Authentisierung und Autorisierung einen eigenen Benutzerzugang, der über Leserechte für die relevanten Daten verfügt. Das Unternehmen hat dafür Sorge zu tragen, dass der Prüfer nur auf diejenigen Daten zugreifen kann, für die er ein Prüfmandat besitzt [11, Abschnitt I.2 a)]. Ein Verwertungsverbot für versehentlich überlassene Daten besteht nicht [6, Frage I, 14]. Daher sollte das geprüfte Unternehmen die Zugriffsberechtigungen so restriktiv wie möglich vergeben, um keinen unnötig weit reichenden Datenzugriff zu gewähren, was auch im Hinblick auf die Wahrung der Datenschutzrechte der Kunden des Unternehmens geboten erscheint. Dies trifft insbesondere auf Branchen und Unternehmen zu, für die besonders sensible (evtl. berufsständische) Vertraulichkeitsbestimmungen gelten [7]. Sinnvoll ist es weiterhin, die Aktionen, die mit einem Prüfer-Benutzerzugang durchgeführt werden, detailliert zu protokollieren [7]. Dies erleichtert es, die Recherche-Ergebnisse des Prüfers nachzuvollziehen und ermöglicht so eine bessere Vorbereitung des Abschlussgesprächs zur Betriebsprüfung. Auch können Informationen über die relevanten Prüfgebiete gewonnen werden, was die Vorbereitung auf künftige Betriebsprüfungen erleichtert. So können vorab schon Prüfungen auf Basis früherer Prüf-Profile simuliert werden, um eventuelle Probleme im Voraus zu erkennen und zu beheben. Somit kann die echte Prüfung beschleunigt werden, was die Kosten aller Beteiligten senkt. 3.3.3 Datenexport zur Vorbereitung der Datenträgerüberlassung Nur eine Teilmenge des gesamten Datenbestandes eines ERP-Systems unterliegt auf Grund des Kriteriums der steuerlichen Relevanz prinzipiell dem Zugriffsrecht der Finanzverwaltung im Rahmen der Datenträgerüberlassung [11, Abschnitt I.1]. Die zur Beantwortung einer Datenzugriffsanfrage nach Z3 konkret benötigte Datenmenge wird weiterhin durch das Prüfziel des Betriebsprüfers eingeschränkt (betroffener Zeitraum, inhaltliche Ausrichtung). Aus den in Kapitel 3.3.2 genannten Gründen ist weiterhin eine Beschränkung des Datenexportes auf das unbedingt benötigte Maß sinnvoll. Hinsichtlich der datenschutzrechtlichen Verantwortung treffen diese Überlegungen in besonderem Maße zu, da die Übertragung der Daten ausdrücklich unverschlüsselt erfolgen muss und die Datenträger somit bei Verlust ungeschützt wären [3]. Angesichts der komplexen Datenmodelle des Systems bedarf es einer Werkzeugunterstützung seitens des ERP-Systems für den Exportprozess. Nur so kann eine bedarfsgerechte und effiziente Bereitstellung der gewünschten Daten erfolgen. Zunächst sollte für jeden Bereich des Datenmodells, das dem System zu Grunde liegt, möglichst feingranular dessen steuerliche Relevanz definierbar sein. Dies trägt der Tatsache Rechnung, dass die Frage nach der Relevanz je nach Unternehmen unterschiedlich beurteilt werden kann. Auf die468 ser Basis bietet sich ein Assistenten-gestütztes Vorgehen an, um für verschiedene Prüfzwecke Sichten auf das gesamte Datenmodell zu definieren, die zur Selektion der zu Daten genutzt werden können. Mit dem Data Retention Centre [7] verfolgt z. . SAP einen ähnlichen Ansatz. Für den Datenexport nach Z3 hat die Finanzverwaltung einen Standard entwickelt („IDEAFormat“) [5]. Obwohl dessen Verwendung z. Zt. nur empfohlen und nicht vorgeschrieben wird, sollten ERP-Systeme künftig eine Exportmöglichkeit im IDEA-Format bereithalten. Neben seiner Kernaufgabe beim Datenaustausch mit der Finanzverwaltung ist er eine geeignete Basis für die Integration heterogener Teilsysteme in eine GDPdU-konforme Gesamtlösung (vgl. Abschnitt 3.2.2). 4 Untersuchung der Auswirkungen des SOX auf ERP-Systeme 4.1 Relevanz des Sarbanes Oxley Act für ERP-Systeme Im Gegensatz du den zuvor thematisierten GDPdU stellt der Sarbanes Oxley Act (SOX) keine direkten Anforderungen an die Gestaltung betrieblicher Anwendungssysteme. Diese ergeben sich erst durch die Operationalisierung der Anforderungen, die das Gesetz an die Unternehmensleitung stellt. Das Ziel hinter dem SOX ist eine Verbesserung von Qualität und Verlässlichkeit der betrieblichen Rechnungslegung. Ein zentrales Mittel zur Umsetzung dieses Ziels ist die Etablierung eines Risikomanagements und eines internen Kontrollsystems (IKS) [16, Section 404]. Bei der Ausgestaltung des IKS werden die Gefahren, die eine Erreichung des Ziels verhindern könnten, strukturiert und einzelnen Risiken gezielte Abwehrmaßnahmen zugeordnet. Hierbei ergeben sich oft konkrete Anforderungen für die IT eines Unternehmens. Der SOX sieht vor, dass das IKS nach einem allgemeinen Rahmenwerk gestaltet wird. Eines der am weitesten verbreiteten Rahmenwerke ist hierbei das Modell des Committee of Sponsoring Organizations of the Treadway Commission (COSO). COSO definiert das IKS als einen „Prozess, der von Aufsichtsgremien, Management und Mitarbeitern ausgeführt wird, um das Erreichen vorgegebener Ziele mit hinreichender Sicherheit zu gewährleisten.“ Als Ziel im Rahmen des Einsatzes von COSO zur SOX-Compliance wird die „Ordnungsmäßigkeit und Verlässlichkeit der Finanzberichterstattung“ verwendet. Alle Hindernisse zur Erreichung eines Ziels werden im Sinne von COSO als Risiken betrachtet. Um Risiken wirksam zu vermindern, sollen Kontrollen eingesetzt werden. Diese werden in die Geschäftsprozesse integriert, um ihre regelmäßige Ausführung sicherzustellen. 4.2 SOX-konforme Ausgestaltung von ERP-Systemen 4.2.1 Von der internen Kontrolle zur Aufgabe für die IT An einem Beispiel soll hier aufgezeigt werden, wie aus einer nicht-technischen Kontrolle eine Anforderung an das ERP-System abgeleitet werden kann. Es sei im Rahmen der Risikoanalyse in Anlehnung an [18] folgendes (vereinfachtes) Schema für eine interne Kontrolle erarbeitet worden:  Kontrollziel: Ordnungsmäßige Verbuchung der Umsätze für ausgehende Lieferungen.  Risiko: Betrügerische Schein-Buchungen zur Sicherung von erfolgsabhängigen Gehaltsbestandteilen der Verkäufer.  Kontrollmaßnahme: Trennung der Rollen – Vertriebsmitarbeiter dürfen keine Warenbewegungen zu eigenen Abschlüssen / Umsätzen buchen. Die vorgestellte interne Kontrolle bezieht sich zunächst nur auf organisatorische Aspekte und manuelle Vorgänge. Geht man aber davon aus, dass für die angesprochenen Buchhaltungsvorgänge auf IT-Systeme wie z. B. die Module „Finanzbuchhaltung“ und „Warenwirtschaft“ eines ERP-Systems gesetzt wird, so müssen die Kontrollmaßnahmen um Aspekte der IT erweitert werden. 469 Das organisatorische Konzept der Trennung von Rollen und Verantwortlichkeiten muss sich auch im ERP-System widerspiegeln. Um ein funktionsfähiges und vor allem gut pflegbares rollenbasiertes Sicherheitskonzept zu unterstützen, sollte ein ERP-System u. E. folgende Merkmale ausweisen:  Vor jeder Interaktion mit dem System muss sich jeder Nutzer mit einer eindeutigen, geschützten (durch ein Passwort) Kennung am System anmelden.  Den Nutzern müssen jeweils eine oder mehrere Rollen zugewiesen werden können.  Es muss in Form von Access-Control-Lists (ACL) detailliert festgelegt werden können, welche Rolle mit welchen Modulen bzw. Daten des Systems welche Aktionen durchführen darf.  Vor Ausführung jeder einzelnen Aktion muss anhand des angemeldeten Nutzers und der ACL geprüft werden, ob der gewünschte Zugriff möglich ist. 4.2.2 Besondere Auswirkungen von SOA-basierten ERP II-Systemen In einer traditionellen ERP-Architektur lässt sich das beschriebene Sicherheitskonzept recht unproblematisch umsetzen bzw. ist in vielen Systemen umgesetzt [15]. Sinnvollerweise werden alle Module des ERP-Systems auf die gemeinsame Datenbasis zurückgreifen, die dann eine zentrale Nutzerliste samt zugehöriger Rollen- und Rechte-Definitionen enthalten muss. Für die einzelnen Services einer SOA ist dies nicht in jedem Falle möglich. Bei der Einbindung von unternehmensexternen Services, die ein zentrales Motiv für eine SOA darstellt, muss davon ausgegangen werden, dass diese Services eigene Nutzerverwaltungen besitzen. Sind unternehmensexterne Services am Prozess beteiligt, benötigt der prozessausführende Nutzer bei mehreren Service-Betreibern Benutzerkonten mit entsprechend vergebenen Berechtigungen. Dies ist sehr wartungsaufwändig und potentiell fehlerträchtig. Eine Lösung wäre ein zentraler Nutzerverwaltungs-Service, der jeweils zur Berechtigungsprüfung herangezogen wird. In der Praxis dürfte sich die Frage nach dem Betrieb des Services stellen, da dieser Instanz von allen Beteiligten großes Vertrauen entgegengebracht werden muss. Eine weitere Herausforderung liegt in der Anwendungs-zu-Anwendungs-Kommunikation, die charakteristisch für eine SOA ist [18]. Die gängigen internen Kontrollen zur Sicherstellung der Rollentrennung basieren auf Nutzer-Authentifikation. In einer SOA kann sich möglicherweise eine Anwendung anstelle einer Person bei einem Webservice anmelden (z. B. ein ERP-System, dass so programmiert ist, dass es bestimmte Bestellungen automatisch per Webservice-Aufruf an die jeweiligen Lieferanten verschickt). Der konkrete Nutzer der Anwendung, die den Webservice-Aufruf samt Authentifizierungsanfrage ausgelöst hat, lässt sich nicht erkennen. Bei der Berechtigungsvergabe ist auf diese Aspekte Rücksicht zu nehmen. Insbesondere dürfen Zugriffsrestriktionen nicht unterlaufen werden können: Ein Nutzer, dem mit seinem persönlichen Benutzerkonto eine bestimmte Aktion nicht erlaubt ist, darf keinen Zugriff auf ein System haben, dass sich über ein anonymes Anwendungs-Benutzerkonto beim Webservice anmeldet und die fragliche Aktion ausführen kann [18]. Die Realisierung eines Rechtemanagements, welches den beschriebenen besonderen Anforderungen gerecht wird, kann auf der in Entity-Relationship-Modell-Form in Abbildung 1 vorgeschlagenen Erweiterung des allgemeinen Rechtemanagements aufsetzen. Grundlage des Modells ist eine Modifikation des Ansatzes der „Role-Based Access Control“ [8]. Der Ansatz sieht vor, dass ein Benutzer eine bestimmte Aktion (Lese- oder Schreibzugriff, Ausführung einer Operation etc.) auf einem geschützten Objekt nur dann durchführen darf, wenn in einer „Access Control List“ ein Eintrag existiert, der genau dies gestattet. Um die Verwaltung der Berechtigungen zu vereinfachen, erfolgt deren Vergabe nicht an einzelne Benutzerkonten („Mitarbeiter Hans-Dieter Schmidt“) sondern an Benutzerrollen („Mitarbeiter Vertriebsinnendienst“). Die Benutzerkonten unterscheiden sich in personengebundene und in (anonyme) anwendungsbezogene Konten. Bei einem geschützten Objekt kann es sich um eine im ERP-System verfügbare Information handeln oder um einen Service, der eine bestimmte Funktionalität bereitstellt, zu deren Realisierung er auf Informationen des ERP- 470 Systems zugreift bzw. diese verändert. Die vom Service benötigten Informationen können selbst geschützt sein. Der Service muss somit beim Rechteverwaltungssystem ein Benutzerkonto und die zugehörigen Authentifizierungsmerkmale angeben, um den Zugriff auf die gewünschten Informationen durchführen zu können. Bei der praktischen Implementierung einer SOA kann es vorkommen, dass hierzu nicht etwa die Login-Informationen des Nutzers, der den Service aufgerufen hat, „durchgereicht“ werden. Stattdessen verfügt der Service über ein eigenes anwendungsbezogenes Nutzerkonto, das mit entsprechenden Zugriffsrechten ausgestattet ist. Prinzipiell besteht daher an dieser Stelle die Gefahr, dass Zugriffsrechte unbeabsichtigt ausgeweitet werden, wenn ein Service, auf den ein Nutzer zugreifen darf, seinerseits Informationen nutzen bzw. verändern kann, auf die der Nutzer keinen expliziten Zugriff hat. Sind aber die Abhängigkeiten zwischen Services und den von ihnen benötigten Informationen sowie die Zugriffsrechte der einzelnen Nutzer(rollen) auf Informationen und Services vollständig im Datenmodell erfasst, können etwaige Inkonsistenzen bei der Berechtigungsdefinition automatisiert aufgedeckt werden. Hierzu muss ein Abgleich durchgeführt werden zwischen den Informationen, auf die eine Nutzerrolle expliziten Zugriff hat und den Informationen, auf welche die Services zugreifen können, die von der jeweiligen Nutzerrolle genutzt werden dürfen. Darüber hinaus kann eine Prüfung bereits in den Prozess zur Vergabe von Berechtigungen integriert werden, um auf Inkonsistenzen bereits bei ihrer Entstehung hinzuweisen. Access Control List Lesezugriff (0, n) (0, n) Aktion N,P Schreibzugriff (1, 1) Information (0, n) ACLEintrag geschütztes Objekt (0, n) D,T Service (0, n) (0, 1) anwendungsgebundenes Konto (0, n) Rolle (0, n) BenutzerRolle-ZuO (0, n) Benutzerkonto (1, 1) D,T personengebundenes Konto Abbildung 1: Ableitung eines erweiterten Entity-Relationship-Modells zum Rechtemanagement 5 Fazit Es wurde gezeigt, dass sich Compliance-Vorschriften sowohl direkt als auch indirekt auf die Gestaltung von ERP-Systemen auswirken können. In Deutschland stellen die GDPdU die Vorschriften mit der größten Reichweite dar, da sie jedes Unternehmen betreffen. Auch Vorschriften aus dem ausländischen Rechtsraum müssen u. U. beachtet werden. Ein Beispiel hierfür ist der Sarbanes Oxley Act, der Unternehmen betrifft, die sich über die amerikanischen Kapitalmärkte finanzieren. Bezüglich ihrer Auswirkung auf die ERP-Systeme können die Compliance-Regeln unterschieden werden in Vorschriften, die sich direkt auf ERP-Systeme beziehen (z. B. GDPdU) sowie Vorschriften, die sich indirekt auf ERP-Systeme auswirken, da sie Ziele verfolgen, welche sich nur mit ITUnterstützung erreichen lassen (z. B. Sarbanes Oxley Act). Letztgenannte bedürfen einer strukturierten Vorgehensweise, um die relevanten Konsequenzen für die Gestaltung von ERP-Systemen herauszuarbeiten. Hierfür existieren entsprechende weithin anerkannte Rahmenwerke wie COSO. 471 Vorschriften wie die GDPdU, die direkten IT-Bezug haben, machen einerseits detaillierte Vorgaben für die Ausgestaltung betroffener Systeme. Andererseits lassen sie aber auch immer noch viel Interpretationsspielraum. Problematisch erweist sich in diesem Zusammenhang, dass die GDPdU keinen Gesetzesrang haben, sondern lediglich eine Interpretation der Finanzverwaltung darstellen. Wichtige ERP-Hersteller haben inzwischen Werkzeuge für die effiziente Gestaltung des elektronischen Datenzugriffs nach GDPdU in ihre Produkte integriert. Auf dem Gebiet der langfristigen Vorhaltung großer Datenmengen zu Prüfzwecken gibt es hingegen noch Bedarf für Lösungen, die vollständig von den gesetzlichen Vorgaben gedeckt sind und gleichzeitig die Verhältnismäßigkeit des nötigen Umsetzungsaufwandes berücksichtigen. Der Artikel ist ein erster Grundlagenbeitrag in diesem Forschungsgebiet. Weiterführend ist der Status Quo der Abdeckung bzw. Umsetzung in ERPSystemen auf Basis der dargelegten Erkenntnisse empirisch zu analysieren sowie das vorgeschlagene ergänzende Rechtemodell in einem SOA-System zu implementieren und zu evaluieren. Literaturverzeichnis [1] Becker, J.; Vering, O.; Winkelmann, A.: Unternehmenssoftwareeinführung: Eine strategische Entscheidung. In: Softwareauswahl und -einführung in Industrie und Handel. Hrsg.: J. Becker, O. Vering, A. Winkelmann. Berlin 2007, S. 6-30. [2] Bianco, P.; Kotermanski, R.; Merson, P.: Evaluating a Service-Oriented Architecture. 2007. ftp://ftp.sei.cmu.edu/pub/documents/07.reports/07tr015.pdf. Abrufdatum 2008-06-25. [3] BITKOM: Leitfaden zum elektronischen Datenzugriff der Finanzverwaltung. Steuerrechtliche Anforderungen und Technologien zu Datenaufbewahrung. 3. Auflage. Berlin 2006. [4] Brand, T.; Groß, S.; Lindgens, B.; Zöller, B.: Leitfaden für die Durchführung eines Projektes zur Abdeckung der Anforderungen der Grundsätze zum Datenzugriff und zur Prüfbarkeit digitaler Unterlagen (GDPdU). Version 1.0 vom November 2003. Bonn 2003. [5] Bundesministerium der Finanzen (BMF): Information zum „Beschreibungsstandard für die Datenträgerüberlassung“. 2002. http://www.bundesfinanzministerium.de/nn_53848/DE/BMF__Startseite/Service/Downloads/Abt__IV/ 010,property=publicationFile.pdf. Abrufdatum 2008-06-25. [6] Bundesministerium der Finanzen (BMF): Fragen und Antworten zum Datenzugriffsrecht der Finanzverwaltung. 2008. http://www.bundesfinanzministerium.de/nn_53848/DE/BMF__Startseite/Service/Downloads/Abt__IV/ 009,property=publicationFile.pdf . Abrufdatum 2008-06-25. [7] Deutschsprachige SAP Anwendergruppe e.V.: Empfehlungen zur Anwendung der GDPdU. 2006. http://www.dsag.de/index.php?lang=de&active_main_chapter=arbeitskreise&aknr=115#103. Abrufdatum 2007-12-13. [8] Ferraiolo, D.F., Kuhn, D.R.: Role Based Access Control. In: Proceedings of the 15th National Computer Security Conference. 1992. http://csrc.nist.gov/rbac/ferraiolo-kuhn-92.pdf. Abrufdatum: 2008-06-22. [9] Fuchs, C.: Begriffserklärung ERP II. 2007. http://www.logistikinside.de/fm/2248/Durchblick%20Business%20Software.pdf. Abrufdatum 2008-06-25. [10] Groß, S.; Kampffmeyer, U.: GDPdU & Archivierung: Endlich Klarheit. 2003. http://www.contentmanager.de/ magazin/artikel_406_gdpdu_archivierung_ii.html. Abrufdatum 2008-06-25. [11] Grundsätze ordnungsmäßiger DV-gestützer Buchführungssysteme (GoBS). BMF-Schreiben vom 07.11.1995. Bundessteuerblatt 1995, BStBl. Teil I, S. 738ff [12] Grundsätze zum Datenzugriff zur Prüfbarkeit digitaler Unterlagen (GDPdU). BMF-Schreiben vom 16.07.2001. Bundessteuerblatt 2001, BStBl. Teil I, S. 415ff [13] Kampffmeyer, U.; Zöller, B.: Die GDPdU und ihre Anforderungen zur elektronischen Archivierung. Gemeinsame Stellungnahme. Hamburg und Sulzbach/Taunus 2003. [14] Kampffmeyer, U.: GDPdU & elektronische Archivierung. 2005. http://www.projectconsult.net/Files/GDPdU_Archivierung.pdf. Abrufdatum 2008-06-25. [15] Menzies, C.: Sarbanes-Oxley Act. Professionelles Management interner Kontrollen. Stuttgart, 2004. [16] Möller, C.: ERP II. A conceptual framework for next-generation enterprise systems? In: Journal of Enterprise Information Management. 18 (2005) 4, S. 483-497. [17] Sarbanes Oxley Act of 2002 (SOX 2002) vom 23.01.2002. The Library of Congress (Thomas) H.R. 3763 [18] Taylor, H.: Managing SOX in the Age of SOA. 2006. http://soagovernancearchitect.com/2006/05/26/managingsox-in-the-age-of-soa.aspx. Abrufdatum 2008-06-25. [19] Werner, H.: SCM. Grundlagen, Strategien, Instrumente und Controlling. 2. Aufl., Wiesbaden 2002. [20] Winkelmann, A.; Klose, K.: Experiences while selecting and implementing ERP systems in SMEs: a case study. In: Proceedings of the American Conference on Information Systems (AMCIS'08). Toronto, Ontario, Canada, 2008. 472 DIE AUSWIRKUNGEN VON SOZIALEN MOTIVEN AUF DIE RECHTS- UND HAFTUNGSSITUATION AM BEISPIEL OFFENER NETZE Reto Mantz1 Kurzfassung Business Services im Internet sind extrem vielfältig. Sowohl die beteiligten Personen, die ausgetauschten Leistungen, die Form des Austauschs sowie die Motive der Beteiligten sind unterschiedlich. Die folgende Arbeit soll klären, ob und inwiefern soziale oder altruistische Motive Einfluss auf die Rechtsgestaltung, also die vertragliche Auslegung und Einordnung, sowie die Haftungssituation bei typischen und untypischen IT-Verträgen haben können. Dafür sollen zunächst anhand des Beispiels offener Netze soziale Motive erarbeitet und erläutert werden. Anschließend werden die Auswirkungen dieser Motivation auf die vertragliche Auslegung durch Betrachtung zweier Situationen der Leistungserbringung (anonyme Kommunikation ohne explizite (AGB-ähnliche) Vertragsgrundlage einerseits und Verwendung eines offenen „Vertrages“ andererseits) anhand des deutschen Rechts untersucht. Nach der Gestaltung ist die Frage nach dem Einfluss der Motivation auf die Haftung der Beteiligten zu stellen. Hierfür soll die aktuelle Rechtslage im Bereich der Störerhaftung sowie des Auskunftsanspruchs beleuchtet werden. 1. Offene Netze Offene Netze (oder „freie Netze“) sind Funknetzwerke, die nicht von kommerziellen Anbietern, sondern hauptsächlich von Privatpersonen, teilweise auch von gemeinnützigen Vereinen, betrieben werden. Offene Netze bieten jedem Interessierten die Möglichkeit, zum einen das offene Netz zu nutzen und zum anderen Teil des Netzwerks zu werden und aktiv an dessen Weiterentwicklung und dessen Angebot mitzuwirken. Ein einzelner Funkknotenbetreiber stellt also Dritten – in Zusammenarbeit mit anderen Betreibern Zugang zum Netzwerk und eventuell auch zum Internet zur Verfügung. Er ist damit klar als Access Provider einzuordnen, der einen ähnlichen Dienst erbringt wie z.B. die Deutsche Telekom oder ihre Konkurrenten. Offene Netze bilden Gemeinschaften, die sich sowohl regional als auch überregional organisieren und große Funknetzwerke schaffen, die allen Beteiligten und auch interessierten Dritten Zugang zum Netzwerk selbst und zum Internet gewähren. Nur ein typisches Beispiel ist die Initiative 1 Heymann & Partner Rechtsanwälte, Frankfurt/M. 473 freifunk.net in Berlin (http://www.freifunk.net), die mit derzeit ca. 1000 aktiven Knoten das weltweit größte Netzwerk stellt. Aber auch in anderen Städten bilden sich solche Gemeinschaften und bauen offene Netze auf (für eine unvollständige Übersicht der Initiativen s. https://freifunk.net/community). Dabei versteht sich die Freifunk-Community als Teil einer globalen Bewegung für freie Infrastrukturen. Es gibt regelmäßige Kontakte und Zusammenarbeit mit anderen Initiativen auch im Ausland. Offene Netze in ihrer generellen Form zeichnen sich zusätzlich dadurch aus, dass die Teilnahme am Netzwerk gleichzeitig dem Aufbau des Netzwerks selbst dient. Durch – teilweise selbst entwickelte – Routing-Protokolle auf Basis des sog. Ad-Hoc-Modus ist jeder Funknetzknoten nicht nur Client, sondern auch Zugangs- und Vermittlungspunkt. Der „Nutzer“ eines Netzwerks ist also gleichzeitig auch dessen „Betreiber“. 2. Wirtschaftliche und gemeinnützige Motive Das Internet hat sich als wesentlicher Wirtschaftsraum etabliert. Der Waren- und Dienstleistungsumsatz über das Internet weist beständige Wachstumsraten auf. Das Internet hat außerdem neue Vertriebswege und Wirtschaftsmodelle befördert bzw. hervorgebracht. Dennoch sind die meisten rechtlichen Beziehungen im Internet als „klassische“ Verträge zu werten, bei denen die Leistungsbeziehung in Form eines Synallagmas eindeutig ist. Die Übertragung der allgemeinen rechtlichen Grundsätze auf diese Internet-Verhältnisse hat zwar zu Umbrüchen und Anpassungen im Rechtssystem geführt, ist aber weitgehend ohne grundlegende Systemveränderung durchgeführt worden. Als Beispiel unterscheidet sich der über das Internet abgeschlossene Kaufvertrag kaum vom klassischen Kaufvertrag. Lediglich beim Verbraucherschutz und im Rahmen der Durchführung des Vertrages haben sich größere Veränderungen ergeben. Auch ASPVerträge, die sich durch ihre im Internet begründete Dezentralität auszeichnen, haben als Dienstverträge (BGH CR 2007, 75) ihren Platz in der Dogmatik des BGB gefunden. Die Motivation der Beteiligten hat sich hingegen kaum geändert. Der europäische Binnenmarkt ist ein Wirtschaftsraum, in dem auch im Internet wirtschaftliche Motive vorherrschen. Veränderungen hat das Internet aber dennoch dadurch gebracht, dass die Vernetzung sowie die Etablierung neuer Kommunikationswege auch die Potenzierung von gemeinschaftlicher Arbeit auf der Basis von „Mitmachmodellen“ befördert hat. Deutliches Beispiel hierfür sind die Phänomene Open Source und Open Content - und mit Abstrichen Open Access (eingehend zur Motivation und rechtlichen Einordnung [1]). Die Motivation der Beteiligten an diesen Modellen ist eine andere – sie ist im weitesten Sinne gemeinnützig. Natürlich haben die einzelnen Beteiligten auch persönliche Interessen, die sie durch die Investition ihrer Arbeit verfolgen – beispielsweise Reputationsgewinn oder persönliche Weiterbildung - aber in der Regel herrschen eher gemeinnützige Motive vor. Auf dieser Ebene sind auch offene Netze anzusiedeln. Sie werden dabei ebenso als Etablierung einer „Netzwerk-Allmende“ begriffen, die als Parallele zu Open Source oder Open Content freien Zugriff auf Netzwerke und das Internet umfasst. Die Idee des offenen und freien Netzes ist damit Ausdruck einer fremdnützigen, altruistischen Motivation der Betreiber. Diese Idee stellt zumindest ein wesentliches Element der unterschiedlichen Motivationswege der Beteiligten dar. Die Beweggründe spiegeln sich zudem in dem Bestreben wider, den sog. „Digital Divide“ sowohl national [2] als auch international [3] zu überwinden. 474 3. Vertragliche Konstruktion? 3.1. Die Trennung zwischen Nutzer und Diensteanbieter - Auflösung eines Rollenparadigmas Betrachtet man die gesetzlichen und anderen rechtlichen Konzeptionen, die bei der Behandlung von Fragen im Zusammenhang mit technischen Netzwerken zusammenhängen, so lässt sich feststellen, dass bis auf wenige Ausnahmen eine Zweiteilung im Sinne einer klaren Rollenverteilung besteht. Netzwerk- und Internetdienste werden von einem Diensteanbieter angeboten und von einem Dienstnutzer konsumiert. Daraus lässt sich auf ein grundsätzliches Rollenparadigma schließen, das nach der eingenommenen Funktion des Teilnehmers differenziert. Die Abgrenzung nach der Funktion ist durchaus sinnvoll und erleichtert das Verständnis für die Vielzahl der im Internet eingegangenen (Rechts)Beziehungen. Zusätzlich deckt sich dieser Befund selbstverständlich mit dem synallagmatischen Verständnis von Verträgen mit Austauschbeziehung. Diese Rollenverteilung lässt sich ohne weiteres überall dort aufrecht erhalten, wo sich die persönliche Handlung ebenso klassifizieren lässt: Der Kunde des Access Providers nutzt den vom Access Provider erbrachten Dienst. In den hier betrachteten offenen Netzen, die sich einer Vernetzung mittels Funktechnologien im AdHoc-Modus bedienen, ist die Ermittlung bzw. Aufrechterhaltung dieser Rollenverteilung erheblich schwieriger. Im mobilen AdHoc-Netzwerk steht der Teilnehmer in unmittelbarem (Funk-)Kontakt zu den mit ihm über Funkwellen physikalisch verbundenen Netzwerkknoten. Über diese vermittelt kann er aber auch mit denjenigen Netzwerkknoten kommunizieren, zu denen er selbst keine unmittelbare Funkverbindung hat. Routing-Algorithmen, die auf den Netzwerkknoten arbeiten, erlauben ihm die Kommunikation mit weiter entfernt liegenden anderen Teilnehmern. Insofern kann er leicht als Nutzer identifiziert werden. Die mit ihm verbundenen Knoten hingegen, die diese Vermittlungsleistung erbringen, sind für ihn die Diensteanbieter. Diese Sichtweise ändert sich, sobald man den Netzwerkknoten aus der Sicht eines anderen Teilnehmers sieht: Für diesen erbringt er die Vermittlungsleistung. Für diesen ist er nicht Nutzer, sondern Diensteanbieter. Im selben Augenblick kann jeder Teilnehmer eines AdHoc-Netzwerks also Nutzer und Diensteanbieter sein. Es besteht demzufolge eine Identität der beiden Rollen. Eine Trennung kann nur logisch hinzugedacht werden, indem auf einzelne Kommunikationsströme abgestellt wird. Abbildung: Einfaches Beispiel eines offenen Netzes (AdHoc-Modus) 475 Über Verträge des bürgerlichen Rechts lässt sich dieses Verhältnis ohne weiteres rechtlich abbilden, indem beide Parteien Dienste als Leistung erbringen. Die Verwendung und Bereitstellung von offenen Netzen hat eine starke soziale Komponente. Die Verbreitung und Akzeptanz basiert weitgehend auf der Anzahl der beteiligten Nutzer. Zwischen den Nutzern besteht darüber hinaus häufig ein die Gruppe verbindender Gemeinschaftssinn, der sich auch auf die gemeinschaftsinterne Kommunikation auswirkt. Durch diese Gemeinschaftsbildung, aber auch durch die technische Realisierung der Netzwerke, gibt es dementsprechend keine feste Rollenverteilung in reine Nutzer und reine Betreiber. Während im kommerziellen Bereich also eine Menge von Anbietern um die Konsumenten ihrer Angebote konkurrieren, wird bei offenen Netzen die deutliche Trennung, die sich auch in TKG und TMG niederschlägt, durch das den offenen Netzen immanente Konzept fast immer aufgelöst. 3.2. Vertrag ohne Gestaltungsgrundlage – Gefälligkeitsverhältnis? Offene Netze bilden in aller Regel größere Gemeinschaften. Dennoch ist es nicht unüblich, dass sich derjenige, der den Netzknoten aktiv betreibt und derjenige, der ihn nutzt, keinen unmittelbaren Kontakt haben und/oder sich nicht kennen. Dennoch findet ein technischer Kommunikationsvorgang statt. Fraglich ist, ob in dieser Situation der faktischen Anonymität, selbst ohne Verwendung einer (AGB-ähnlichen) vertraglichen Vereinbarung wie des Pico Peering Agreement (s.u. 3.3.1) ein Vertrag geschlossen wird, der eine (rechtliche) Grundlage des Verhältnisses zwischen den Beteiligten darstellt und bei eventuellen Problemen zur Regulierung dienen kann. Als Alternative dazu könnte ein Gefälligkeitsverhältnis oder gar ein reines Gefälligkeitsverhältnis vorliegen. Nach BGHZ 21, 105 ist nach der vom BGH aufgestellten subjektiven Theorie darauf abzustellen, ob die Parteien mit Rechtsbindungswillen gehandelt haben. Es sind also die einzelnen Handlungen der Parteien im Hinblick auf Willenserklärungen zu untersuchen und zu bewerten. Als Hilfestellung hat die Rechtsprechung verschiedene objektivierte Kriterien entwickelt. Diese sind: • Gesellschaftlicher Verkehr • Unentgeltlichkeit • Grund und Zweck des Verhältnisses • Wirtschaftliche und rechtliche Bedeutung für die Beteiligten • Wirtschaftliche Risiken des Leistenden Betrachtet man diese Kriterien unter Zugrundelegung einer sozialen, gemeinnützigen Motivation dürfte es sich beim oben beschriebenen Verhältnis in offenen Netzen um ein reines Gefälligkeitsverhältnis unter Ausschluss aller Rechtspflichten handeln. Dies deckt sich auch mit den beobachteten Intentionen der Beteiligten. Allerdings stellt diese Gefälligkeitslösung keine 1:1-Abbildung der oben angesprochenen Auflösung des Rollenparadigmas - in der hier betrachteten Situation im Grunde zwei vollständig wechselseitige reine Gefälligkeitsverhältnisse („Nutzer“-„Betreiber“ und „Betreiber“-„Nutzer“) dar. Die im Rahmen der Gefälligkeit gegebene Reduktion der Pflichten bewirkt aber eine weitgehende Annäherung. 476 Die Motivation der Beteiligten wirkt sich also auf die objektivierte Bewertung der Handlungen und damit den Rechtsbindungswillen der Beteiligten aus. Sie hat folglich einen unmittelbaren Einfluss auf die vertragliche Gestaltung, der sich innerhalb der zivilrechtlichen Dogmatik abbilden lässt. 3.3. Mit vertraglicher Grundlage – Gründung einer Gesellschaft? Offene Netze sind wie oben aufgezeigt, durch die Phänomene Open Source und Open Content stark beeinflusst. Allerdings werden bei Open Source und Open Content in aller Regel spezielle vertragliche Werke verwendet, sog. offene Lizenzverträge (s. nur [4, 5]). 3.3.1. Pico Peering Agreement Offene Netze sind in dieser Hinsicht auch durch die vertragliche Konstruktion von Open Source beeinflusst worden: Vor dem Hintergrund einer zunehmenden Anzahl von öffentlich zugänglichen Netzwerkknoten sowie der Kenntnis des Konstrukts des kommerziellen Peerings (also der gegenseitigen Durchleitung von Datenverkehr durch gleichrangige Network Provider, vgl. [6, Rn. 156]) wurde im Jahr 2002 für freie Netze das „Pico Peering Agreement“ entwickelt (eingehend [7, S. 190 ff.]). Zwar existierten zu diesem Zeitpunkt bereits offen zugängliche Access Points, diese waren aber größtenteils nicht miteinander verbunden und bildeten kein größeres bzw. flächendeckendes Netzwerk. In dieser Situation entstand der Bedarf nach einem PeeringAbkommen für freie Netze (s. http://www.picopeer.net), das einerseits die Bedingungen einer Verbindung der einzelnen Netze und andererseits eine Definition offener Netze leisten sollte. Nr. 1 des Pico Peering Agreement legt die wesentlichen Pflichten des Betreibers fest: • „Der Eigentümer bestätigt, freien Transit über seine freie Netzwerkinfrastruktur anzubieten.“ • „Der Eigentümer bestätigt, die Daten, die seine freie Netzwerkinfrastruktur passieren, weder störend zu beeinträchtigen noch zu verändern.“ Das Pico Peering Agreement sollte demnach der Bildung von umfassenden und flächendeckenden offenen Netzen, aber auch der Vereinigung und Vergrößerung der Gemeinschaften rund um offene Netze dienen, indem die Betreiber Peering anbieten. Die deutliche Formulierung von Punkten, über die grundsätzlich Einigkeit bestand, sollte den bisherigen Teilnehmern die Situation erklären helfen und neuen Teilnehmern den Einstieg erleichtern. Der Begriff „pico“ soll dabei in Abgrenzung zu kommerziellen Peering Agreements den kleinen Maßstab des Peering-Aufkommens verdeutlichen. Das Pico Peering Agreement besteht aus drei Teilen: einer Präambel, der eigentlichen Vereinbarung sowie notwendigen Definitionen. Es soll laut Satz 1 der Präambel die „minimale, grundsätzliche Vorlage für ein Peering-Abkommen (Verbindungsabkommen, Bündnisabkommen) zwischen den Eigentümern individueller Netzwerkknoten“ darstellen. Satz 2 der Präambel lautet: „Das PPA ist eine formalisierte Beschreibung der Verbindung zwischen zwei Netzwerk-Instanzen (peers). Eigentümer einer Netzwerkinfrastruktur machen von ihrem Eigentumsrecht Gebrauch, indem sie ihr Einverständnis dafür geben, einen Teil ihrer Infrastruktur für den freien Datenaustausch über ihr Netzwerk bereitzustellen.“ 477 3.3.2. Interpretation und Verwendung des Pico Peering Agreement Erneut ist fraglich, ob und wie sich die soziale Motivation, die sich nicht zuletzt im Rahmen dieses „Vertragswerks“ zeigt - aber auch Grenzen definiert - auf die rechtliche Gestaltung auswirkt. Für offene Netze, insbesondere wenn sie eine starke persönliche Vernetzung zwischen den Mitgliedern aufweisen, könnte das Pico Peering Agreement als Vertrag über die Gründung einer BGB-Innengesellschaft aufgefasst werden. Es ist also zu untersuchen, ob die Regelungen der Gesellschaft bürgerlichen Rechts nach §§ 705 ff. BGB oder gar das „Wesen der Gesellschaft“ (vgl. [8, S. 3 ff.]) dieser Interpretation entgegenstehen. Denn auch hier wirken sich die sozialen Motive der Beteiligten aus. Zentraler Gesichtspunkt für die Gründung einer Gesellschaft ist der gemeinsam verfolgte Zweck. Das Pico Peering Agreement in Verbindung mit dem daraus ermittelten Willen der Beteiligten enthält einen solchen Zweck – den Aufbau und Betrieb eines offenen Netzwerks. Die Gesellschaft ist geradezu der Prototyp für die Abbildung der oben dargestellten Motive der Beteiligten. Sie erlaubt rechtlich den Zusammenschluss der Betreiber unter Festlegung einiger weniger Haupt(förderungs)pflichten, die auch gegenüber unbekannten Dritten erbracht werden können, und einem gleichzeitigen möglichst weitgehenden Haftungsausschluss. Zudem soll die Gesellschaft jederzeit Dritten offen stehen, was insbesondere im Hinblick auf gemeinschaftliche Entscheidungen der Gesellschaft problematisch sein kann. Die Aufnahme eines neuen Mitglieds, die Umdeutung der Kündigung durch Einstellung des Betriebs sowie die Mitgliedschaft in mehreren solchen Gesellschaften bedürfen der intensiven Betrachtung (dazu eingehend [9, S. 132 ff.]). Im Ergebnis kann eine Innengesellschaft unter bestimmten Voraussetzungen angenommen werden. Damit entfallen auch eventuelle Probleme hinsichtlich der Auseinandersetzung oder der Haftung der Gesellschaft – durch die Innengesellschaft ist sichergestellt, dass kein Gesellschaftsvermögen aufgebaut wird, über das eine Auseinandersetzung erforderlich wäre, die Gesellschaft tritt zudem nicht nach außen auf und haftet dementsprechend auch nicht gegenüber Dritten. Sie ist eine motivationsgesteuerte Zweckgemeinschaft, die die Parteien lediglich im Innenverhältnis bindet der sozialen Motivation entsprechend so wenig wie möglich und so viel wie nötig. Sie ermöglicht schließlich relativ unproblematisch die Einbindung wechselnder Teilnehmer sowie deren zahlenmäßiges Schwanken. Auch die oben angesprochene Auflösung des Rollenparadigmas wird durch die absolute Gleichstellung der Gesellschafter zueinander gewährleistet. Die Innengesellschaft bei offenen Netzen bildet insofern nur eine weite Interpretation des „weiten Gefäßes“ der Gesellschaft bürgerlichen Rechts. Die Konstruktion erlaubt zudem eine relativ starke Beschränkung der Haftung, genau wie sie das Pico Peering Agreement vorsieht, und wie es die Beteiligten in aller Regel auch wünschen [7, S. 190]. Als Folgefrage könnte eine Übertragung auf andere Situationen mit ähnlichen oder gar anderen Motiven interessant sein, z.B. im Rahmen von über die ganze Welt verteilten Netzwerken. Dazu ist allerdings zu beachten, dass z.B. für die Open Source-Lizenzverträge die Bildung einer Gesellschaft nach h.M. abgelehnt wird [4, S. 145; 10, S. 332; 11, S. 109]. 4. Störerhaftung Nach der Untersuchung der Auswirkungen der Motivation auf die vertragliche Konstruktion, ist der Einfluss der Motivation auf die Haftungssituation zu betrachten. 478 Derzeit in beständiger Diskussion ist die Frage nach der Störerhaftung des Internet Service Providers. Anhand offener Netze lassen sich die Grundlagen und Auswirkungen dieses Haftungsinstruments sehr gut darstellen und beleuchten. Problematisch für offene Netze ist die Störerhaftung, weil sie die typische Haftungskonstellation ist: Verletzt ein Teilnehmer an einem offenen Netz die Rechte eines Dritten, so tritt nach außen in aller Regel nicht der Verletzer selbst (mittels seiner IP-Adresse) auf, sondern eben der Betreiber des Netzwerkknotens bzw. des Gateways ins Internet. Exkulpiert sich der Betreiber unter Verweis auf seine Funktion als Access Provider, greift für Schadensersatzansprüche die Privilegierung des § 8 TMG. Dem Rechtsinhaber verbleibt nur der Rückgriff auf die Störerhaftung. Erste Frage bei der Untersuchung einer Störerhaftungskonstellation ist die Frage, ob die Handlung des potentiell Pflichtigen adäquat-kausal für die Rechtsverletzung war (BGH GRUR 2002, 618, 619 - Meißner Dekor I). Durch dieses Merkmal wird eine sehr weite Haftung eröffnet [12, § 8 Rn. 2.13; 13, Kap. 14 Rn. 10b]. Als Mittel zur Einschränkung hat der BGH das Erfordernis der Verletzung von Prüfungs- und Überwachungspflichten entwickelt (BGH GRUR 1997, 313, 315 Architektenwettbewerb; BGH GRUR 2003, 969, 970 - Ausschreibung von Vermessungsleistungen; BGH GRUR 2004, 693, 695 - Schöner Wetten; BGH GRUR 2006, 875 - RechtsanwaltsRanglisten; st. Rspr.). Er schränkt somit die Haftung nicht nur über die Adäquanz, sondern in einem zweiten Schritt weiter ein. Um festzustellen, ob eine Verletzung von Prüfungs- und Überwachungspflichten vorliegt, ist in jedem Einzelfall eine Abwägung der betroffenen Interessen nötig. Dafür hat sich in der Rechtsprechung eine Reihe von Kriterien gebildet, die mal mehr, mal weniger den Ausschlag geben können – eine einheitliche Linie hat sich bisher noch nicht gebildet. Diese sind (ohne Anspruch auf Vollständigkeit): • Kenntnis der Rechtsverletzung (str.) • Rechtsschutzinteresse des Betroffenen – Rang des Rechtsguts und Schwere der Rechtsverletzung • Wirtschaftliche Nutzenziehung des Internet Service Providers aus der Handlung des unmittelbaren Störers (z.B. relevant bei BGH – Internetversteigerung I-III) • Funktion und Aufgabenstellung des potentiellen Störers • Eigenverantwortung des Dritten • Aufwand für Prüfungs- und Überwachungspflichten • Effektivität bzw. erwarteter Erfolg der verlangten Maßnahme inkl. der Möglichkeit des unmittelbaren Störers, die Maßnahmen zu umgehen • Technische und wirtschaftliche Zumutbarkeit der verlangten Maßnahme • Datenschutz und Anonymität (str.) Betrachtet man diese Punkte, zeigt sich deutlich, dass die Untersuchung von Prüfungs- und Überwachungspflichten im Grunde eine spezialisierte Verhältnismäßigkeitsprüfung enthält. Und aus diesem Schluss ergibt sich die Folge, dass gerade die Motivation des Internet Service Providers ein wesentliches Element in der Betrachtung der Störerhaftung bildet (eingehend [9, S. 254 ff.]). Der BGH hat erkennbar und wiederholt besonders stark auf die wirtschaftliche Betätigung des Providers abgestellt (vgl. auch m.w.N. BGH GRUR 2007, 890 – Jugendgefährdende Medien bei eBay). Bereits das Fehlen von kommerziellen Beweggründen hat also deutlichen Einfluss auf die Haftung. Im konsequenten Umkehrschluss der Argumentation des BGH muss das Vorliegen von 479 sozialer und insbesondere fremdnütziger, nicht-kommerzieller Motivation zu einer weitergehenden Privilegierung des Betreibers führen. Die Störerhaftung speziell des (unbewussten) WLAN-Betreibers bildet in den letzten Jahren einen scharf umstrittenen Teilbereich der Störerhaftung. Das LG Hamburg (MMR 2006, 763) hatte als erstes Gericht einen solchen Fall zu beurteilen und hat die Störerhaftung zu Lasten des WLANBetreibers ohne nähere Begründung angenommen. Das LG Frankfurt (MMR 2007, 675) sowie das LG Düsseldorf (zuletzt mit Urt. v. 16.07.2008 – 12 O 232/08) hatten sich der restriktiven Linie des LG Hamburg angeschlossen. Mit Urteil vom 01.07.2008 hat allerdings das OLG Frankfurt nun die Gegenposition eingenommen und die Störerhaftung des WLAN-Betreibers abgelehnt (OLG Frankfurt MMR 2008, 603 m. Anm. Mantz/Gietl). Revision zum BGH ist bereits eingelegt (Az. I ZR 121/08). Die Behandlung der Störerhaftung ist damit auch für offene Netze weiterhin nicht restlos geklärt, der BGH kann aber für Rechtssicherheit sorgen. 5. Auskunftsansprüche Schlussendlich sind noch die Auswirkungen der Motivation auf Auskunftsansprüche des Rechtsinhabers gegen den Betreiber zu betrachten. Im Rahmen der Auskunftsansprüche hat sich durch die Umsetzung der Enforcement-Richtlinie (2004/48/EG) in deutsches Recht eine Änderung ergeben: § 101 UrhG (sowie die entsprechenden Parallelvorschriften in PatG, MarkenG, etc.), der zum 01.09.2008 in Kraft getreten ist, sieht einen Auskunftsanspruch des Rechtsinhabers auch gegen Dritte vor, also auch und insbesondere gegen den Internet Service Provider (eingehend [9, S. 295 ff.]). Die Umsetzung der Richtlinie insgesamt, aber auch des Auskunftsanspruchs war bis zuletzt umstritten. Zweifel an der Vereinbarkeit mit EURecht sowie nationalem Recht werden in der Literatur diskutiert (dazu [14; 9, S. 307 ff.] jeweils m.w.N.). Schon ein kurzer Blick auf den Auskunftsanspruch offenbart – im Einklang mit den bisherigen Ergebnissen – den möglichen Einfluss der Motivation der Beteiligten: § 101 Abs. 4 UrhG sieht ausdrücklich vor, dass eine Einzelfallprüfung inklusive Verhältnismäßigkeitsabwägung stattfinden muss. Zusätzlich sieht § 101 Abs. 9 UrhG noch einen Richtervorbehalt vor, falls für die Auskunft auf Verkehrsdaten zurückgegriffen werden muss, was bei offenen Netzen immer der Fall sein wird. Betrachtet man die Verhältnismäßigkeitsanforderungen, dürfte sich ein ähnliches Bild ergeben wie bei der Störerhaftung – die Kriterien im Rahmen der Untersuchung von Prüfungs- und Überwachungspflichten sind schließlich spezielle Verhältnismäßigkeitsgesichtspunkte. Dass eine Einzelfallprüfung geboten ist, zeigen nicht zuletzt Urteile, die in letzter Zeit ergangen sind, und die die Herausgabe von Daten an die Staatsanwaltschaften oder die Verwertung solcher Daten im Zivilprozess kritisch betrachten (OLG Frankfurt MMR 2008, 603; AG Offenburg MMR 2007, 809; LG Saarbrücken K&R 2008, 320; LG Frankenthal K&R 2008, 467; a.A. LG Offenburg K&R 2008, 384; dazu näher Fehler! Verweisquelle konnte nicht gefunden werden.). Schlussendlich ist noch interessant, wie sich die Umsetzung der Vorratsdatenspeicherungsrichtlinie auswirken wird – und natürlich, ob nicht auch hier Verhältnismäßigkeitserwägungen anzustellen sind, die wiederum Auswirkungen einer sozialen Motivation bedingen könnten. 480 6. Ergebnis Im Ergebnis zeigt sich, dass gerade die Motivation der Beteiligten wesentlichen Einfluss auf die hier betrachteten rechtlichen Komplexe hat. Dieser Einfluss wirkt sich zum einen stark auf die rechtliche Gestaltung im Sinne eines Rechtsverhältnisses aus. Zum anderen wirkt er bei der Begründung von Haftungsansprüchen. Literatur [1] MANTZ, RETO, Open Source, Open Content und Open Access – Gemeinsamkeiten und Unterschiede, in: Lutterbeck/Bärwolff/Gehring, Open Source Jahrbuch 2007, S. 413 [2] ERNST, SONJA, Freie Netze - Utopien aus Sauerkrautdosen, Spiegel Online v. 04.03.2005, http://www.spiegel.de/netzwelt/technologie/0, 1518, 344668, 00.html [3] FLICKENGER, ROB et al., Wireless Networking in the Developing World, 2. Aufl. 2008, http://wndw.net/pdf/wndw2-en/wndw2-ebook.pdf [4] JAEGER, TILL/METZGER, AXEL, Open Source Software, 2. Aufl. 2006 [5] JAEGER, TILL/METZGER, AXEL, Open-Content-Lizenzen nach deutschem Recht, MMR 2003, 431 [6] PETRI, AXEL/GÖCKEL, ANDREAS, in: Moritz/Dreier, Rechts-Handbuch zum E-Commerce, 2. Auflage, 2005, Kap. B [7] MEDOSCH, ARMIN, Freie Netze, 2003 [8] TEICHMANN, ARNDT, Gestaltungsfreiheit in Gesellschaftsverträgen, 1970 [9] MANTZ, RETO, Rechtsfragen offener Netze - Rechtliche Gestaltung und Haftung des Access Providers in zugangsoffenen (Funk-)Netzen, 2008 [10] HEUSSEN, BENNO, “Danaergeschenke, Dereliktion oder Haftung im Verein?” – Offene Rechtsfragen um Free Software, in: Taeger, Jürgen; Wiebe, Andreas (Hrsg.), Informatik, Wirtschaft, Recht, S. 323 [11] GRÜTZMACHER, MALTE, Copyright statt Copyleft, ITRB 2006, 108, 109 [12] HEFERMEHL, WOLFANG; KÖHLER, HELMUT; BORNKAMM, JOACHIM, UWG, 26. Aufl. 2008 [13] TEPLITZKY, OTTO, Wettbewerbsrechtliche Ansprüche und Verfahren, 9. Aufl. 2006 [14] SPINDLER, GERALD, Der Auskunftsanspruch gegen Verletzer und Dritte im Urheberrecht nach neuem Recht, ZUM 2008, 640 [15] GIETL, ANDREAS/MANTZ, RETO, Die IP-Adresse als Beweismittel im Zivilprozess - Beweiserlangung, Beweiswert und Beweisverbote, CR 2008, 810 481 GRENZEN DER DATENSCHUTZRECHTLICHEN VERANTWORTLICHKEIT IN EINER WELT DES „UBIQUITOUS COMPUTING“ Jürgen Müller1 Kurzfassung Der folgende Beitrag untersucht am Beispiel des Einsatzes von RFID-Lesegeräten, inwieweit in einer Welt des „Ubiquitous Computing“ die datenschutzrechtliche Verantwortlichkeitsregel noch tragfähig ist. Die verantwortliche Stelle ist der zentrale Anker im Datenschutzrecht, an den die meisten Schutzpflichten eines Datenumgangs angeknüpft werden. Allerdings wird deutlich, dass das Konzept der Verantwortlichkeit im geltenden Datenschutzrecht angesichts der neuen Herausforderungen eines künftig informatisierten Alltages an seine Grenzen stößt. 1. Die „verantwortliche Stelle“ im Datenschutzrecht Rechte und Pflichten im Datenschutzrecht knüpfen an den Begriff der verantwortlichen Stelle an.[4-Rn. 224] Zu solchen Pflichten der verantwortlichen Stelle gehören beispielsweise, die Verwendungszwecke der Daten bei der Erhebung gemäß § 28 Abs. 1 Satz 2 BDSG festzulegen, die Betroffenen über ihre Identität, die Verwendungszwecke oder die (Kategorien der) Empfänger gemäß § 4 Abs. 3 BDSG zu unterrichten oder im Fall einer Auftragsdatenverarbeitung, gemäß § 11 BDSG den Auftragnehmern Weisungen zu erteilen und ihre Einhaltung zu überwachen. Gemäß § 3 Abs. 7 BDSG ist eine verantwortliche Stelle, „jede Person oder Stelle, die personenbezogene Daten für sich selbst erhebt, verarbeitet oder nutzt oder dies durch andere im Auftrag vornehmen lässt“. Normadressat sind also die öffentlichen und nichtöffentlichen Stellen im Sinne des § 2 BDSG.[4-Rn. 227] Sobald diese in irgendeiner Form mit personenbezogenen Daten im Sinne des § 3 Abs. 1 BDSG umgehen, sind sie hierfür grundsätzlich im Sinne des Datenschutzrechts verantwortlich. 2. Die Bedingungen einer Welt des „Ubiquitous Computing“ In einer Welt des „Ubiquitous Computing“ finden datenerhebende, -verarbeitende und -nutzende Vorgänge durch viele Techniksysteme statt, die von ihren Funktionen ineinander greifen, verteilt und über Alltagsgegenständen in der Umwelt präsent sind.[3, 8] Der Einsatz der RFID-Technik stellt einen ersten Schritt in eine solche Welt dar. Als Komponenten des RFID-Vordergrundsystems werden, RFID-Marken, in vielen beweglichen oder unbeweglichen Gegenständen eingebettet sein 1 Wissenschaftlicher Mitarbeiter in der Projektgruppe verfassungsverträgliche Technikgestaltung (PROVET) im interdisziplinären Forschungszentrum Informationstechnikgestaltung (ITeG) an der Universität Kassel 483 [9, 10, 11] und über ein Hintergrundinformationssystem vernetzt und mit anderen Techniksystemen verbunden sein. Dabei nutzen mehrere Stellen unter Umständen die einzelnen Komponenten, wie das RFID-Lesegerät, als Infrastruktur gemeinsam. Entweder greifen sie „lediglich“ auf die Funktionen des RFID-Lesegeräts für ihre eigenen Zwecke zurück oder verwenden technisch Erhebungsergebnisse, Speicherfunktionen oder Auswertungen des Geräts in Form der Daten gemeinschaftlich. Selbst für RFID-Lesegeräte, die im „Ubiquitous Computing“ auch andere Sensoren sein können, ist denkbar, dass diese als öffentliche Infrastruktur - für jedermann nutzbar aufgestellt sind. Daher besteht, anders als bei einer Datenverarbeitung in Akten oder in herkömmlichen Datenverarbeitungsanlagen, bei Techniksystemen in einer Welt des „Ubiquitous Computing“ die Herausforderung, ob eine Verantwortlichkeit in gleicher Weise angenommen und wie diese bestimmt werden kann. 3. Objektive und subjektive Kriterien für die Verantwortlichkeit Zur Gewährleistung der informationellen Selbstbestimmung verlangt das Datenschutzrecht, wie in § 4 Abs. 1 BDSG normiert, stets eine Rechtfertigung durch einen Zulassungstatbestand in Form einer gesetzlichen Erlaubnis oder einer Einwilligung des Betroffenen. Um aber Eingriffe in dieses Grundrecht des Betroffenen gering zu halten, stellt das Datenschutzrecht verschiedene Schutzanforderungen an den Umgang mit den Betroffenendaten auf. Die datenschutzrechtlichen Regeln beziehen sich auf die Phasen des Erhebens, Speicherns, Veränderns, Übermittelns, Löschens, Sperrens oder einer anderen Form des Nutzens. Das bedeutet aber auch, dass grundsätzlich hinsichtlich der datenschutzrechtlichen Anforderungen keine Zustandsverantwortlichkeit oder Gefährdungshaftung für ein Techniksystem entsteht, dem ein entsprechendes Gefährdungspotential zu eigen ist. Vielmehr setzt die Verantwortlichkeit im Datenschutzrecht nach § 3 Abs. 7 BDSG objektiv eine Aktivität als eine zurechenbare Handlung voraus.[4-Rn. 102 f.] Gegenstand dieser Aktivität ist grundsätzlich der Umgang mit personenbezogenen Daten. Sie kann auch in einer Veranlassung der datenschutzrechtlich relevanten Vorgänge bestehen. Indiz kann hierfür eine Art Funktionsherrschaft über das Techniksystem sein, wobei sich die Kontrolle auf den Vorgang des Datenumgangs erstrecken muss. Ebenso deuten Maßnahmen, mit dem die verantwortlich zu machende Stelle die betreffenden Vorgänge initiiert und maßgeblich beeinflusst, auf einen solchen, ihr zuzurechnenden Umgang hin. Nicht die Existenz von personenbezogenen Daten, sondern der Umgang mit ihnen ist für die Interessen des Betroffenen bedeutsam. Zudem muss bei § 3 Abs. 7 BDSG ein subjektives Element hinzutreten, nämlich ein gewisses bewusstes und willentliches Handeln der Person.[4-Rn. 102 f.] Allerdings dürfen keine zu hohen Anforderungen an das Wissen und Wollen gestellt werden. In der Konsequenz heißt das, dass einer Stelle datenerhebende oder datenverwendende Vorgänge nicht zugerechnet werden können, von der sie keine Kenntnis hat. Ohne eine Veranlassung dieser Vorgänge sind sie letztlich nicht von ihrem Willen getragen. Fraglich ist, ob gleiches auch dann gilt, wenn diese Vorgänge durch Funktionen eines Techniksystems durchgeführt werden. Grundsätzlich muss auch in diesem Fall die Stelle um den Vorgang wissen, der mittels des Techniksystems in die informationelle Selbstbestimmung des Betroffenen eingreift. Dies wiederum kann aber nicht soweit gehen, dass die Stelle im Einzelnen über technische Abläufe und deren Umsetzung Bescheid weiß. Es muss genügen, wenn die Stelle die Tatsache einer Erhebung, Verarbeitung oder Nutzung von personenbezogenen Daten durch das Techniksystem für sie nachvollziehbar kennt und den jeweils konkreten Vorgang in ihren Willen einzubeziehen vermag. Dazu gehören auch tatbestandsvoraussetzende Umstände der datenschutzrechtlichen Phasen. Beispielsweise verlangt der Übermittlungstatbestand gemäß § 3 Abs. 4 Satz 2 Nr. 3 BDSG die Weitergabe der Daten an Dritte im Sinne des § 3 Abs. 8 BDSG und das Bereithalten eine Vorstellung von dem Empfänger oder dem Empfängerkreis. Daneben soll eine Erhebungs- oder Verwendungsphase 484 im Sinne des Datenschutzrechts ausscheiden, wenn bezüglich der personenbezogenen Daten kein Verwendungszweck vorgesehen ist oder für die Stelle objektiv keine Kenntnisnahmemöglichkeit besteht.[4-Rn. 107, 120] Hierdurch entfallen die tatbestandlichen Voraussetzungen eines Umgangs, der eine Verantwortlichkeit nach dem Datenschutzrecht nach sich zöge. 4. Verantwortlichkeit beim Einsatz von RFID-Lesegeräten In einem künftigen umfassenden RFID-Gesamtsystem wird eine Vielzahl von stationär aufgestellten oder mobil eingesetzten RFID-Lesegeräten genutzt werden. Wem ein RFID-Lesegerät und dessen Datenumgang zugeordnet werden kann, muss nicht immer ohne Weiteres feststehen oder bestimmbar sein. Sobald Personen beispielsweise sich der Funktionen eines Netzwerks von in der Umgebung aufgestellten RFID-Lesegeräten bedienen, führen sie jeweils die datenerhebenden- und datenverwendenden Vorgänge mittels dieser durch. Der Betreiber stellt mit einer solchen Infrastruktur lediglich die Möglichkeiten des Datenumgangs zur Verfügung. So könnte ein Inhaber einer Ladenpassage oder eines Einzelhandelsladengeschäfts seinen Kunden mobile RFID-Lesegeräte anbieten, die sie bei ihrem Besuch zur Abfrage von entsprechend mit RFID-Marken gekennzeichneten Produkten und Hinweistafeln nutzen können. In einem Einkaufszentrum, Ausstellungsgelände oder Veranstaltungshalle würde der Inhaber des Ladengeschäftes, der Schausteller oder Veranstalter den Betreiber der RFID-Infrastruktur beauftragen, für ihn je nach Geschäftszweck markierte Waren zur Abrechnung am Ein- und Ausgang, markierte Ausstellungstücke hinsichtlich Lokalisation und zur Bestandskontrolle oder die Belegung von Sitzplätzen zu registrieren. Unter einer solchen Konstellation bliebe die beauftragende Stelle für die im Rahmen des Auftragsverhältnisses stattfindenden Erhebungs- und Verwendungsmaßnahmen durch den Infrastrukturanbieter verantwortlich. 4.1 Betreiber der RFID-Lesegerätinfrastruktur Vorgeschlagen wird, die datenschutzrechtliche Verantwortlichkeit dem Betreiber des Systems aufzuerlegen, um, flankiert durch zivilrechtliche Nebenpflichten oder das Hausrecht, nahezu alle Fälle des Datenumgangs durch das von ihm betriebene Techniksystem abzudecken.[1] Ausgangspunkt dieser Ansicht ist die Überlegung, dass die meisten Komponenten eines RFID-Systems weder absichtslos noch ohne Verwendungszweck aufgestellt sind und betrieben werden. Um diese Funktion der gezielten Erfassung und Zuordnung von Objekten erfüllen zu können, arbeiteten die aufgestellten RFID-Lesegeräte in der Regel raumbezogen und eingebunden in ein Hintergrundinformationssystem. Trotz der vielfältigen Möglichkeiten, in diesen Räumen Objekte zu registrieren, ist nach dieser Ansicht stets der jeweilige Betreiber, der die technischen Einrichtungen der Datenerfassung und -verarbeitung, wie RFID-Lesegeräte oder Hintergrundinformationssysteme betreibt, für die stattfindende Erhebung und Verwendung verantwortlich. Es sei allen Anwendungen des „Ubiquitous Computing“ gemein, dass diese technischen Einrichtungen von jemandem betrieben werde, der bezüglich eines bestimmten Funktionsraumes mit der Datenerfassung ein spezifisches Betriebsinteresse verfolgt.[1] Dieser Ansicht kann nicht gefolgt werden. Sie verkennt, dass die Verantwortlichkeit gemäß § 3 Abs. 7 BDSG an den Umgang mit personenbezogenen Daten anknüpft. Der § 3 Abs. 7 BDSG weist die Verantwortlichkeit derjenigen Person oder Stelle zu, „die personenbezogene Daten ... erhebt, verarbeitet oder nutzt“. Diese Formulierung zeigt an, dass der Bezugspunkt der datenschutzrechtlich relevante Vorgang ist. Die Verantwortlichkeit entsteht an und für die einzelne, stattfindende Datenerhebung, -verarbeitung oder -nutzung. Es kommt auf die Durchführung des die informationelle Selbstbestimmung gefährdenden Vorgangs, also auf das Tätigwerden der Person oder Stelle an. Auch würde es dem Konzept des zumindest geltenden Datenschutzrechts widersprechen, da 485 Bezugspunkt für das Schutzprogramm grundsätzlich der jeweilige und konkrete Verwendungsvorgang ist. Aus § 3 Abs. 7 BDSG lässt sich keine Art Gefährdungshaftung für Techniksysteme lesen, die allein wegen ihres Betreibens den Betreiber für mit Hilfe seines Systems durchgeführte Verwendungen von personenbezogenen Daten in die Pflicht nimmt. Gleiches gilt auch für den Inhaber des Hausrechts. Selbst wenn dieser etwa aus vertraglichen, deliktischen oder anderen zivilrechtlichen Nebenpflichten Schutzmaßnahmen für Güter des Betroffenen – wie für dessen informationelle Selbstbestimmung [6- Rn. B 140,C 173; 5- Rn. 43] – zu treffen hätte, begründet dieses nicht die Pflichten einer verantwortlichen Stelle nach dem Datenschutzrecht. Der Vermieter oder Verpächter, der in seinen Räumen die Aufstellung von Lesegerät- oder Sensortechnik durch andere Nutzungsberechtigte duldet, verstößt als Inhaber des Hausrechts bzw. des Eigentums allein auf Grund seiner Vermietung oder Verpachtung nicht gegen datenschutzrechtliche Vorschriften. Einzuräumen ist freilich, dass es nahe liegt, dass der Betreiber, der in tatsächlicher und rechtlicher Hinsicht die Herrschaft über die Funktionen des Techniksystems ausübt, auch die Erhebung, Verarbeitung oder Nutzung vornimmt. Dennoch entsteht die Verantwortung einer Person oder Stelle nach dem Datenschutzrecht für den einzelnen Vorgang des Datenumgangs, den nicht zwingend der Betreiber des zu Hilfe genommenen Techniksystems durchzuführen braucht. Zwar beinhaltet die Funktionsherrschaft grundsätzlich die Möglichkeit, das Techniksystem abzuschalten, Nutzer auszuschließen oder Funktionen zu beschränken. Indem aber der Betreiber die von ihm betriebene Infrastruktur oder die Funktionen seines Techniksystems anderen Personen zur Verfügung stellt, ist er nicht notwendigerweise Nutzer und auch nicht derjenige, der den Datenumgang konkret durchführt. Abzugrenzen ist schließlich die Person, die das Techniksystem und dessen Funktionen zur Verfügung stellt, von der Person oder Stelle, die einerseits als Beauftragte oder andererseits als übermittelnde Stelle an dem Datenumgang teilnimmt. Wenn nun der Betreiber personenbezogene Daten im Rahmen eines Auftragsverhältnisses für eine andere Stelle erhebt, verarbeitet oder nutzt, treffen ihn als Beauftragter weitergehende Pflichten des Datenschutzrechts. Dagegen wäre der Betreiber selbst verantwortliche Stelle, wenn andere Stellen in einer Weise mit personenbezogenen Daten über sein Techniksystem versorgt werden, das sich sein „Betreiben“ gegenüber der anderen Stelle als ein Übermitteln im Sinne des § 3 Abs. 4 Satz 2 Nr. 3 BDSG darstellt. Das ist beispielsweise der Fall, sobald eine Person nicht die Funktionen zur Verfügung stellt, sondern mittels des RFID-Lesegerätes oder Lesegerätnetzwerkes Vorgänge initiiert, deren Gegenstand personenbezogene Daten sind und auf deren Ergebnisse eine andere Stelle für ihren Datenumgang zurückgreift. Indem die das Techniksystem betreibende Stelle mit der anderen Person die betreffenden personenbezogenen Daten austauscht, erhebt, verarbeitet oder nutzt die das System betreibende Stelle diese Daten im Sinne des § 3 Abs. 7 BDSG „für sich selbst“. Das gilt, sofern keine Beauftragung dieser Stelle vorliegt. Im Ergebnis ist nach dem geltenden Datenschutzrecht der- oder diejenige verantwortliche Stelle, der mittels eines RFID-Lesegerätes auch personenbezogene Daten erhebt, verarbeitet und nutzt. 4.2 Benutzung einer RFID-Lesegerätinfrastruktur durch mehrere Beteiligte Schwierigkeiten könnte die Bestimmung der datenschutzrechtlichen Verantwortlichkeit bereiten, wenn mehrere Stellen die selbe RFID-Infrastruktur oder das selbe RFID-Lesegerät verwenden und darüber RFID-Marken auslesen, deren Daten mit oder ohne Unterstützung des Hintergrundinformationssystem verwenden. Dies ergibt sich, wenn beispielsweise ein Auslagenregal für markiertes Informationsmaterial mehrerer Anbieter oder ein Tischbereich von mehreren Bewirtungsbetrieben gemeinsam genutzt werden. RFID-Lesegeräte am und um das Auslagenregal oder unter den Tischen würden, zugreifbar für jede Stelle, markiertes Informationsmaterial oder markiertes Geschirr 486 registrieren, um eine Prüfung des Bestandes oder eine Abrechnung differenziert für jede Stelle zu ermöglichen. Soweit diese Stellen für sich über die aufgestellte Infrastruktur personenbezogene Daten erheben oder verwenden, ist jede Stelle jeweils für ihren Datenumgang verantwortlich. Wenn jedoch diese verschiedenen Stellen die Ergebnisse der Funktionen des RFID-Lesegerätes in Form der erhobenen, verarbeiteten oder genutzten Daten zusammen, gebrauchen, lässt sich die datenschutzrechtliche Verantwortlichkeit schwieriger feststellen. Man könnte zum einen eine gemeinsame Verantwortung aller beteiligten Stellen annehmen.[1, 16] Dies ist bei Anwendungen im Feld des „Ubiquitous Computing“ durchaus ein Ansatz, um den schwierig umzusetzenden Schutzbedürfnis in komplexen und nicht stabilen Konstellationen, in denen mehrere Beteiligte die selben Techniksysteme nutzen, Rechnung zu tragen. Dennoch findet eine solche Konstruktion keine Stütze im geltenden Recht. Zum einen ist fraglich, wie bei einer gemeinsamen Verantwortlichkeit für die stattfindende Erhebung das Ziel als Steuerungsinstrument erhalten bleibt. Bei einer Erhebung, die mehrere Beteiligte für ihre jeweils eigenen Geschäftszwecke gemeinsam durchführen, lässt sich für die erhobenen Daten eine klare Zweckbindung nicht festlegen. Dadurch wird die mit der Zweckbindung intendierte Begrenzungsfunktion konterkariert. Zudem sind bei gemeinschaftlichen Erhebungs- und Verarbeitungsmaßnahmen die möglicherweise nicht kongruenten Voraussetzungen der sie rechtfertigenden Zulassungstatbestände zu beachten, auf die sich jede beteiligte Stelle jeweils stützen können muss und die den Datenumgang dieser erst rechtfertigen. Zum anderen geht der § 3 Abs. 7 BDSG bei der verantwortlichen Stelle von einer natürlichen oder juristischen Person aus. Komplexe oder undurchschaubare Konstellationen, in denen sich die genutzten Techniksysteme und beteiligten Stellen immer wieder verändern, ist dem geltenden Datenschutzrecht fremd. Mit der Annahme einer BGB-Gesellschaft als eine verantwortliche Stelle, die die beteiligten Stellen in dem gemeinsamen Erheben und Verwenden der personenbezogenen Daten bilden, ließe sich eine Konstruktion finden, mit der der Vorstellung des geltenden Datenschutzrechts entsprochen werden könnte. Eine solche Gesellschaft bürgerlichen Rechts setzt im Allgemeinen keine besonderen Formen bei Abschluss des Gesellschaftsvertrages voraus, sondern lässt sich sogar konkludent [17-Rn. 10 ff.] durch die gemeinsame Verfolgung eines Zweckes gründen. Als solcher kommt beinahe jedes wirtschaftliche Ziel in Betracht.[17-Rn. 20 ff.] Als Folge dieses Zusammenschlusses haftet diese aus Personen bestehende Gesellschaft nach neuerer Rechtsprechung analog [7-Rn. 5] zu §§ 128 ff. HGB gemeinschaftlich im Außenverhältnis. Eine solche Gesellschaft könnte beispielsweise entstehen, wenn mehrere Ladeninhaber in einer Kaufhalle eine gemeinsame RFID-Überwachungsanlage anschafften, nicht aber, wenn mehrere Ladeninhaber bei einem Inhaber einer RFID-Anlage den Gebrauch dieser mieteten. Auf Grund der Anerkennung der Teilrechtsfähigkeit einer BGB-Gesellschaft könnte der Betroffene sich zur Durchsetzung seiner Rechte, wie der aus § 34 Abs. 1 BDSG oder § 35 Abs. 1 BDSG prozessual an die Gesellschaft wenden, ohne jeder der Gesellschafter gesondert verklagen zu müssen. Allerdings bleiben auch bei der Konstruktion über eine BGB-Gesellschaft Folgefragen bestehen. Die Fragen, auf welchen Zulassungstatbestand sich diese verantwortliche Stelle stützen kann und wodurch eine Übermittlung der erhobenen und verarbeiteten Daten an die beteiligten Stellen zu rechtfertigen ist, lassen sich datenschutzrechtlich nicht zufriedenstellend beantworten. Wählte man den Weg einer Beauftragung der Gesellschaft durch die Beteiligten, bleiben Bedenken, wie die Anforderungen einer Beauftragung gewährleistet werden können. Der Gesetzgeber hat dieses Problem der vielen Beteiligten bei zumindest mehreren speicherberechtigten Stellen gesehen. § 6 Abs. 2 BDSG hilft über die Feststellungs- und Zugangsschwierigkeiten der tatsächlich verantwortlichen Stelle hinweg, aber statuiert keine gemeinschaftliche Verantwortung der Beteiligten. Für den Betroffenen sieht § 6 Abs. 2 Satz 1 BDSG bezüglich seiner Auskunfts-, Berichtigungs-, Löschungs- und Sperrungsrechte gemäß § 6 Abs. 1 BDSG im Fall, die 487 speichernde Stelle nicht feststellen zu können, eine Erleichterung vor,: er kann sich an jede dieser in Betracht kommenden Stellen wenden, wenn bei einer automatisierten Speicherung mehrere speicherungsberechtigte Stellen vorhanden sind. Diese angesprochene Stelle muss gemäß § 6 Abs. 2 Satz 2 BDSG das Vorbringen des Betroffenen an die tatsächlich speichernde Stelle weiterleiten. Deshalb erscheint es mit dem geltenden Datenschutzrecht konformer, bei einem gemeinsamen Gebrauch eines RFID-Lesegeräts oder RFID-Lesegerätenetzwerkes in dem (einen) technischen Vorgang der Erhebung, Verarbeitung oder Nutzung personenbezogener Daten, auf die die Beteiligten zurückgreifen, jeweils ein datenschutzrechtlich relevanten Datenumgang gemäß § 3 Abs. 3, Abs. 4 oder Abs. 5 BDSG durch die einzelne beteiligte Stelle zu erblicken. In dem einen technischen Vorgang einer Datenerhebung, -verarbeitung oder -nutzung würde sich ein entsprechend x-facher Erhebungs-, Verarbeitungs- oder Nutzungsvorgang im Sinne des Datenschutzrechts realisieren. Jeder beteiligten Stelle könnte somit ein Vorgang des Datenumgangs zugerechnet werden und wäre auch datenschutzrechtlich am Maßstab der für den jeweiligen Beteiligten einschlägigen Regeln datenschutzrechtlich überprüfbar. Letztlich ist die Stelle, die mittels des RFID-Lesegeräts mit personenbezogenen Daten umgeht, verantwortliche Stelle. Sie ist, wie oben angesprochen, selbst dann gemäß § 3 Abs. 7 BDSG verantwortlich, wenn sie auf Grund von Anforderungen anderer Stellen, etwa über das angeschlossene Hintergrundinformationssystem Erhebungs-, Verarbeitungs- und Nutzungsvorgänge durchführt. Dadurch erhebt und verwendet sie Daten für sich selbst. Ein Austausch dieser Daten oder Verwendungsergebnisse mit Personenbezug an die anderen Stellen könnte sich als eine Übermittlung gemäß § 3 Abs. 4 Satz 2 Nr. 3 BDSG darstellen. Beispielsweise könnte ein Spediteur über die gesamte Logistikkette Transportgut über aufgestellte RFIDLesegeräte verfolgen. Soweit hierdurch personenbezogene Daten erfasst werden, ist er für das Erheben und Verarbeiten dieser Daten verantwortlich, auch wenn diese seinen Kunden zur Verfügung stehen. In gleicher Weise erhebt bei einem unternehmensübergreifenden, elektronischen ÖPNVAbrechnungssystem die Transportgesellschaft als verantwortliche Stelle des jeweiligen Wagens oder Fahrzeuges, in dem das RFID-Lesegerät eingebaut ist, die Fahrgastdaten für sich selbst. Die Weitergabe der Daten an die gemeinsame Abrechnungsstelle erfolgte dann im Wege einer Übermittlung. 5. Grenzen des geltenden Datenschutzrechts Die Ausführungen zeigen, dass sich de lege lata für stattfindende Erhebungs-, Verarbeitungs- oder Nutzungsvorgänge grundsätzlich eine verantwortliche Stelle bestimmen lässt. Dies gilt umso mehr für Verhältnisse, die klar strukturiert und nachvollziehbar sind. Gleichwohl machen die obigen Ausführungen deutlich, dass die Regeln des geltenden Datenschutzrechts beim Einsatz der RFID-Technik und noch mehr bei künftigen Anwendungen des „Ubiquitous Computing“ an ihre Grenzen stoßen werden.[10, 12, 14] Die Herausforderungen, die sich für das Grundrecht der informationellen Selbstbestimmung ergeben können, liegen in dem Einsatz komplexer und ineinander greifender IuK-Infrastrukturen, vernetzter und leistungsfähiger Hintergrundinformationssysteme, zahllos in die Umwelt eingebrachter Sensorstationen, wie RFIDLesegeräte, und deren Vernetzung. Hinzu kommt eine Vielzahl von Beteiligten und eine gemeinsamen Nutzung der selben Techniksysteme. Verbunden könnte der Wandel durch neue Formen von Techniksystemen oder Infrastrukturen sein, die zeitweilig durch Zusammenschaltung entstehen und sich wieder auflösen. Hinzukommt, dass stattfindender Datenumgang erst durch das Zusammenwirken verschiedener Teilsysteme oder erst nach und nach datenschutzrechtlich relevant wird.[14] Dadurch wird die Bestimmung einer verantwortlichen Stelle und die wirkungsvolle Umsetzung des datenschutzrechtlichen Schutzprogramms durch sie schwieriger. Zunächst führt das dazu, dass für den Betroffenen nicht immer klar erkennbar ist, welche Stelle konkret verantwortlich zu machen ist, wenn viele Stellen beteiligt sind. Verschärft wird dieses Problem durch den Umstand, dass in 488 einem entsprechend informatisierten Alltag eine Vielzahl von datenverarbeitenden Vorgängen stattfinden und diese im Hintergrund quasi unmerklich ablaufen sollen. Aber ohne eine Kenntnis von der Identität der verantwortlichen Stelle ist der Betroffene nicht in der Lage seine datenschutzrechtlichen Betroffenenrechte, wie Auskunft, Berichtigung, Löschung oder Schadenersatz wahrzunehmen und durchzusetzen. Um viele der Funktionen im „Ubiquitous Computing“ zur Verfügung zu stellen und Anwendungen gemäß dieser Vision zu ermöglichen, sollen zudem die Techniksysteme zusammenarbeiten und regelrecht ineinandergreifen. Dabei sind oft viele Akteure beteiligt, die unter Umständen nur kurzfristig und spontan Aktionen ausführen. Je nach Funktion kann es genügen, wenn die von ihnen mitgeführten oder aufgestellten Techniksysteme, wie eine RFID-Lesegerätstation, für andere vorübergehend Teil ihrer Systeme werden, ohne ein Agieren oder Reagieren des jeweiligen Akteurs zu erfordern. Ihr möglicherweise sogar ungewolltes Zusammenwirken lässt die klare Verantwortlichkeit einer Stelle verschwimmen. Unter den Bedingungen einer allgegenwärtigen Datenverarbeitung löst sich die Verantwortlichkeit für datenverarbeitende Vorgänge auf, auch wenn § 3 Abs. 7 BDSG, wie zuvor dargestellt, grundsätzlich eine klare Zuweisung der Verantwortlichkeit verspricht. Weiter bringt eine allgegenwärtige und massenhafte Verwendung von IuK-Technik mit sich, dass sich zwischen den Akteuren immer wieder ein Rollenwechsel vollzieht. Bei den einen Anwendungen wird eine Person Betroffener, bei anderen selbst Datenverarbeiter sein. Andere Anwendungen wiederum, wie RFID-Anwendungen mit Komponenten aus RFID-Lesegeräten und RFID-Marken, erfordern durchaus, dass sie gleichzeitig Datenverarbeiter und Betroffener sind. Damit kommt der Daten erhebenden und verwendenden Stelle als verantwortliche Stelle eine ganz andere Bedeutung zu, als sie im geltenden Datenschutzrecht angelegt ist. Diesem Umstand tragen die Regeln, die von der verantwortlichen Stelle die Beachtung der entsprechenden Datenschutzmaßnahmen verlangen, nicht Rechnung. Zum einen berücksichtigen die mit der Verantwortlichkeitszuweisung verbundenen Datenschutzregeln nicht das unterschiedliche Gefährdungspotential, das den jeweiligen Stellen mit ihren Verarbeitungsmöglichkeiten zu eigen ist. Aber auch ihre unterschiedlichen Möglichkeiten, sich datenschutzgerecht zu verhalten, Vorkehrungen zu treffen und datenschutzfreundliche Lösungen anzubieten, bleiben meist außer Betracht. Zum anderen werden sie sich angesichts der vielfältigen und durchaus komplexen Anwendungen im „Ubiquitous Computing“ die hierfür erforderlichen und ablaufenden Datenverarbeitungsvorgänge nicht bewusst machen und machen können. Vielleicht kennen die verantwortlichen Stellen alle Funktionen ihrer Anwendungen, jedoch ist nicht zu erwarten, dass sie diese hinsichtlich der Erhebungs-, Verarbeitungs- und Nutzungsvorgänge verstehen. Hinzu kommt, dass ihnen oft ein legaler Zugriff auf die Geräte und Programme fehlen wird. Ohne aber ein entsprechendes Maß an Kenntnissen von Funktionsweise der Techniksysteme und an Wissen um Gestaltungsmöglichkeiten der Datenverarbeitungsabläufe werden sie kaum in der Lage sein, die Schutzanforderungen zu gewährleisten und Betroffenenrechte adäquat umzusetzen. Des Weiteren setzt die Verantwortlichkeit nach § 3 Abs. 7 BDSG voraus, dass zum einen mit den Daten umgegangen wird und zum anderen sie einen Personenbezug aufweisen. Allerdings sind Techniksysteme im Alltag präsent, die mit ihrer Sensor- und Kommunikationstechnik sowie Rechenleistung einzeln oder im Verbund die Möglichkeit eröffnen, Daten an allen Orten, zu jedem Zeitpunkt und unter nahe zu jeden Situationen zu erheben, zu verarbeiten oder zu nutzen. Dieses Potential stellt für sich eine Bedrohung für die informationelle Selbstbestimmung der möglichen Betroffenen dar, weil sie sich dieser Welt allgegenwärtiger Datenverarbeitung ausgesetzt sehen, ohne hiergegen Handlungsoptionen zu haben und ohne die Datenverarbeitungspotentiale immer in jeder Situation klar einschätzen zu können. Ebenso generieren die verschiedenen Techniksysteme Datenspuren und Datensammlungen, die für die sie gebrauchende Stelle noch keinen Personenbezug aufweisen. Gleichwohl bergen sie ein hohes Gefährdungspotential für die informationelle 489 Selbstbestimmung, da deren Qualität mit der Zeit durch ein sie personalisierendes Ereignis umschlagen kann und alle bis dahin ohne Vorgaben von dem Datenschutzrecht erfassten, gesammelten und ausgewerteten Daten auf einen Schlag doch personenbezogen werden.[12] Das bedeutet aber für beide Risikofelder, von Ausnahmen abgesehen, dass zunächst keine datenschutzrechtliche Verantwortlichkeit entsteht und damit auch das Schutzprogramm des Datenschutzrechts nicht greifen kann. Der Schutz bleibt nachsorgend. Für die datenschutzgerechte Gestaltung der Umgebung fehlt eine Verantwortlichkeitszuweisung der Akteure im Vorfeld.[12]Lediglich § 3a BDSG normiert eine Zielvorgabe an die verantwortliche Stelle, nach der Gestaltung und Auswahl von Datenverarbeitungssystemen am Maßstab der Datensparsamkeit auszurichten sind.[2 Rn 9 ff., Rn. 34 ff.] 6. Lösungsansätze 6.1 Datenschutz durch Technik Da in einer Welt der allgegenwärtigen Datenverarbeitung die verantwortlichen Stellen viele der Schutzanforderungen des Datenschutzrechts nur bedingt umsetzen können werden, reicht es nicht aus, allein diese als Adressat der datenschutzrechtlichen Reglungen anzusprechen. Vielmehr gilt es die Techniksysteme selbst datenschutzfreundlich zu entwerfen und zu konfigurieren. Daher gilt es stärker eine Verantwortung für die Techniksysteme herzustellen und Entwickler der Techniksysteme in die Pflicht zu nehmen.[12, 16] Dazu gehören ergänzend auch diejenigen, die mit Gestaltungseinfluss im Betrieb zu nehmende und genommene Techniksysteme warten und konfigurieren.[13, 15] 6.2 Datenschutz durch differenzierte Verantwortlichkeit Wenn im „Ubiquitous Computing“ die Stellen und ihre Datenverarbeitungen, die datenschutzrechtlich erfasst werden sollen, sehr unterschiedlich sind, dann bietet sich an, die Verantwortlichkeit bezüglich der datenschutzrechtlichen Anforderungen gestuft auszugestalten. Denkbar wäre zwischen einer gezielten und ungezielten Datenverarbeitung zu differenzieren.[13, 15] Bei einer ungezielten Datenverarbeitung, bei der der Personenbezug der verwendeten Daten nicht wichtig ist, könnte man die Stelle hinsichtlich der Schutzanforderungen privilegieren, wenn sie für die sofortige Löschung und Ausschluss einer Weiterverwendung der Daten Gewähr bietet. 6.3 Datenschutz durch personalisierte Verantwortung Wenn im „Ubiquitous Computing“ datenverarbeitende Anwendungen massenhaft und in vielen Lebensbereiche zur Verfügung stehen, dann sind neben Einzelpersonen vor allem auch größere Organisationen oder Unternehmen beteiligt, die das Vorhandensein und Funktionieren der Infrastruktur und der vielfältigen Dienste gewährleisten. Für den Stellenwert des Datenschutzes könnte es hilfreich sein, dessen Beachtung nicht nur den Mitarbeitern und dem betrieblichen Datenschutzbeauftragten zu überlassen, sondern die Geschäftsleitung persönlich in die Verantwortung mit hineinzunehmen.[15] 6.4 Datenschutz durch Vorsorge Um in einer Welt der allgegenwärtigen Datenverarbeitung das hohe Risiko für die informationelle Selbstbestimmung zu steuern und zu reduzieren, das in den Fällen besteht, in denen Datenschutzrecht noch nicht greift, weil keine Vorgänge stattfinden oder die Daten für die Stelle noch nicht personenbeziehbar sind, bedarf es vorsorgender Datenschutzregeln. Dazu müssen diese Stellen, die 490 entsprechend potente Techniksysteme in die Umwelt einbringen oder mit solchen Daten umgehen, im Vorfeld des geltenden Datenschutzrechts in die Verantwortlichkeit genommen werden.[12, 15] Im Ergebnis erfordern die neuen Herausforderungen durch „Ubiquitous Computing“ eine Modernisierung des Begriffs der verantwortlichen Stelle als Anknüpfungspunkt im Datenschutzrecht, die natürlich durch weitere risikoadäquate Regeln zu Verarbeitung und Gestaltung der Techniksysteme ergänzt werden muss. Literatur [1] BIZER, J. / SPIEKERMANN, S. / GÜNTHER, O. u.a.: Technikfolgenabschätzung: Ubiquitäres Computing und Informationelle Selbstbestimmung (TAUCIS), Kiel/Berlin 2006. [2] Bizer, J., § 3a, in: Simitis u.a. (Hrsg.), Kommentar zum Bundesdatenschutzgesetz, Baden-Baden 2006. [3] COROAMA, V. u.a. Szenarien des Kollegs Leben in einer smarten Umgebung – Auswirkungen des Ubiquitous Computing, Ladenburg 2003. [4] Dammann, U., § 3, in: Simitis u.a. (Hrsg.), Kommentar zum Bundesdatenschutzgesetz, Baden-Baden 2006. [5] Dix, A., § 33, in: Simitis. u.a. (Hrsg.), Kommentar zum Bundesdatenschutzgesetz, Baden-Baden 2006. [6] Hager, U., § 823 BGB, in: v. STAUGINGER, J., Kommentar zum Bürgerlichen Gesetzbuch mit Einführungsgesetz und Nebengesetzen, Berlin 1999. [7] HILLMANN, R., § 128, in: Ebenroth, C. T. / Boujong, K. / Joost, D. (Hrsg.), Handelsgesetzbuch Kommentar Band 1 §§ 1-342a, München 2001. [8] MATTERN, F., Acht Thesen zur Informatisierung des Alltags, in: ders. (Hrsg.), Die Informatisierung des Alltags – Leben in smarten Umgebungen, Berlin/Heidelberg 2007. [9] MÜLLER, J. / HANDY, M., RFID als Technik des Ubiquitous Computing – Eine Gefahr für die Privatsphäre?, in: Ferstl, O. K. / Sinz, E. J. / Eckert, S. / Isselhorst, T., (Hrsg), eEconomy, eGovernment, eSociety, Tagungsband Wirtschaftsinformatik, Heidelberg 2005, 1145 – 1164. [10] MÜLLER, J. / HANDY, M., RFID und Datenschutzrecht, Risiken, Schutzbedarf und Gestaltungsideen, Datenschutz und Datensicherheit (Zeitschrift) 2004, 655-659. [11] MÜLLER, J., Ist das Auslesen von RFID-Tags zulässig?, Datenschutz und Datensicherheit (Zeitschrift) 2004, 215-217. [12] MÜLLER, J., Datenschutzvorsorge gegenüber Risiken der RFID-Technologie, in: Mattern, F., (Hrsg.), Die Informatisierung des Alltags - Leben in smarten Umgebungen, Berlin/Heidelberg 2007. [13] ROßNAGEL, A. / PFITZMANN A. / GARSTKA H. (2001): Modernisierung des Datenschutzrechts, Bundesministeriums des Innern, Berlin 2001. [14] ROßNAGEL, A. / MÜLLER, J. :Ubiquitous Computing – neue Herausforderungen für den Datenschutz, Ein Paradigmenwechsel und die von ihm betroffenen normativen Ansätze, Computer und Recht (Zeitschrift) 2004, 625-632. [15] ROßNAGEL, A. (2007a): Informationelle Selbstbestimmung in der Welt des Ubiquitous Computing, in: Mattern, F., (Hrsg.), Die Informatisierung des Alltags - Leben in smarten Umgebungen, Berlin/Heidelberg 2007. [16] ROßNAGEL, A. (2007b): Datenschutz in einem informatisierten Alltag, Medien – und Technologiepolitik, Gutachten im Auftrage der Friedrich-Ebert-Stiftung (FES), Berlin 2007. [17] Sprau, H., § 705, in: PALANDT, O., Kommentar zum Bürgerlichen Gesetzbuch (BGB), München 2006. 491 FILESHARING UND TAUSCHBÖRSEN: DIE HAFTUNG DES ANSCHLUSSINHABERS (AUF UNTERLASSUNG) UNTER DEM GESICHTSPUNKT DER STÖRERHAFTUNG – EIN LÖSUNGSVORSCHLAG ZWISCHEN RECHTSPRECHUNG UND REALITÄT Jan Morgenstern1 Kurzfassung Die Diskussion über sog. Tauschbörsen im Internet ist in aller Munde, die Rechtsprechung zur Haftung der Anschlussinhaber für über ihren Internetanschluss begangene Urheberrechtsverletzungen ist uneinheitlich. Im Gegensatz zu Österreich steht eine höchstrichterliche Entscheidung in Deutschland noch aus. Ohne Partei für eine der betroffenen Seiten ergreifen zu wollen, möchte der Verfasser auf Basis der aktuellen Rechtsprechungsentwicklung in Deutschland und Österreich einen Beitrag und einen Vorschlag zu einer interessengerechten Lösung der Problemfelder leisten. Ein besonderer Schwerpunkt soll hierbei auf der Beurteilung der Haftung der Eltern als Anschlussinhaber unter dem Gesichtpunkt der urheberrechtlichen Störerhaftung liegen. 1. Die technische und rechtliche Ausgangsposition 1.1. Peer-to-Peer-Netzwerke als „Tauschbörsen“? Der Begriff Tauschbörse ist irreführend und gibt nicht wirklich zutreffend das System und die Funktionsweise sog. Peer-to-Peer-Netzwerke wieder. Mit Filesharing (deutsch „Dateifreigabe“ oder gemeinsamer Dateizugriff“, wörtlich „Dateien teilen“) bezeichnet man das direkte Weitergeben von Dateien zwischen Benutzern des Internets unter Verwendung eines Peer-to-Peer-Netzwerks. Dabei befinden sich die Daten auf den Computern der Teilnehmer und werden von dort aus verteilt. Normalerweise kopiert man Daten von fremden Rechnern (Download), während man gleichzeitig andere Daten versendet (Upload). Um auf solche Netzwerke zugreifen zu können, braucht man spezielle Computerprogramme. [1] 1 Rechtsanwalt, KANZLEI DR. ERBEN, D-69120 Heidelberg, Neuenheimer Landstr. 36 493 1.2. Die rechtliche Relevanz Urheberrechtlich problematisch stellt sich in der Regel weniger der Download als vielmehr der Upload der Dateien dar: Der Download wird wohl zumeist von § 53 Abs. 1 UrhG privilegiert sein. Einzelne Vervielfältigungen eines Werks durch eine natürliche Person zum privaten Gebrauch auf beliebigen Trägern sind hiernach zulässig, sofern sie weder unmittelbar noch mittelbar Erwerbszwecken dienen und soweit nicht zur Vervielfältigung eine offensichtlich rechtswidrig hergestellte Vorlage verwendet wird. Die sicherlich brisante Frage, ob die Vorlage der Kopie (des Downloads) als offensichtlich rechtwidrig einzuordnen ist, kann in der Praxis meist unbeantwortet bleiben, denn jedenfalls stellt der Upload zweifellos eine Urheberrechtsverletzung dar: Es handelt sich um ein öffentliches Zugänglichmachen im Sinne des § 19 a UrhG, eine Verwertung, die ausschließlich dem Urheber zusteht. In der Mehrheit der Fälle werden die damit klaren Verletzungen der Urheberrechte jedoch nicht von den Inhabern der Anschlüsse begangen. Zumeist sind es die im gemeinsamen Haushalt lebenden Kinder, die an den Tauschbörsen teilnehmen und so (oftmals unbewusst, zumindest ohne jegliches Unrechtsbewusstsein) bestehende Urheberrechte an Musikstücken und Computerspielen verletzen. Über die Ermittlungsbehörden erlangen die Rechteinhaber aber lediglich Auskunft seitens der Provider über den Internetanschluss, der zu dem dokumentierten Zeitpunkt der Verletzungshandlung der festgehaltenen IP-Adresse zugeordnet war. Einen rechtlichen Anknüpfungspunkt für die in der Praxis regelmäßige Inanspruchnahme der Anschlussinhaber kann alleine die Rechtsfigur der urheberrechtlichen Störerhaftung liefern. Der Ansatz dieses Rechtsinstruments und die Übertragbarkeit auf die beschriebene Sachverhaltskonstellation sollen im Folgenden dargestellt werden. 2. Die Störerhaftung Als Störer kann bei der Verletzung absoluter Rechte auf Unterlassung in Anspruch genommen werden, wer - ohne Täter oder Teilnehmer zu sein - in irgendeiner Weise willentlich und adäquat kausal zur Verletzung des absoluten Rechts beiträgt. [2] Da die Störerhaftung nicht über Gebühr auf Dritte erstreckt werden darf, die nicht selbst die rechtswidrige Beeinträchtigung vorgenommen haben, setzt die Haftung des Störers nach ständiger höchstrichterlicher Rechtsprechung allerdings die Verletzung von Prüfpflichten voraus. Deren Umfang bestimmt sich danach, ob und inwieweit dem als Störer in Anspruch Genommenen nach den Umständen eine Prüfung zuzumuten ist. [3] Dieser Ansatz wird insbesondere durch die Entscheidungen Möbelklassiker und Internetversteigerung I-III noch deutlicher unterstrichen: Nur Hinweise auf eine klare bzw. grobe und unschwer zu erkennende Rechtsverletzung führen zu einer Begründung dieser 494 Haftungsvariante, die zu Recht vom BGH eingedämmt wurde und die sich ansonsten uferlos auf jeden noch so entfernten Kausalbeitrag erstrecken würde. Zweifellos wird in der Zurverfügungstellung eines Internetanschlusses an Dritte (insbesondere Familienmitglieder) ein willentlich und adäquat kausaler Beitrag zu einer über diesen Internetanschluss begangenen Urheberrechtsverletzung zu sehen sein. Die entscheidende und vor allen Dingen sachgerechte Eingrenzung ist allerdings nach den klaren Vorgaben des BGH auf der nächsten Stufe vorzunehmen, nämlich im Zusammenhang mit der Frage, ob und wodurch nach den Umständen des Einzelfalls Prüf- und Überwachungspflichten begründet werden können. Soweit die abmahnenden Vertreter der Tonträgerindustrie formulieren: „Dieser Unterlassungsanspruch […] besteht unabhängig davon, ob Sie als Anschlussinhaber die Rechtsverletzungen möglicherweise nicht selbst begangen haben. Als Inhaber des Internetanschlusses, über den die Urheberrechtsverletzungen begangen wurden, sind Sie schließlich nach den Grundsätzen der sog. Störerhaftung für die eingetretenen Rechtsverletzungen verantwortlich, auch wenn Sie die Filesharing-Programme nicht selbst genutzt haben sollten.“ [4] ist dies rechtlich unzutreffend und geht weit über die vom BGH entwickelten Grundsätze zur Störerhaftung hinaus. Wie allerdings konkret die Grundsätze der Störerhaftung derzeit von den deutschen Gerichten auf die Filesharing-Konstellationen angewendet werden und wie dies vor dem Hintergrund der bestehenden höchstrichterlichen Vorgaben zu bewerten ist, soll nachfolgender Überblick verdeutlichen. 3. Die aktuelle Rechtsprechung in Deutschland zur Störerhaftung des Anschlussinhabers – Überblick und Bewertung 3.1. Aktueller Rechtsprechungsüberblick Die aktuelle Rechtsprechung der deutschen Land- und Oberlandesgerichte zu der Haftung des Anschlussinhabers unter dem Gesichtspunkt der Störerhaftung ist uneinheitlich. Mangels einer klärenden höchstrichterlichen Entscheidung zu der konkreten Problematik besteht erhebliche Rechtsunsicherheit. Das LG Hamburg sieht regelmäßig [5] das Überlassen eines Internetanschlusses an einen Dritten für die Begründung der Störerhaftung des Anschlussinhabers als ausreichend an. Dies birge nämlich die nicht unwahrscheinliche Möglichkeit, dass von dem Dritten Urheberrechtsverletzungen begangen werden, was Prüf- und Handlungspflichten auslöse, um der Möglichkeit solcher Rechtsverletzungen vorzubeugen. Ähnlich pauschal urteilt das LG Düsseldorf. [6] Diese Argumentation steht allerdings auf mehr als ungefestigten Beinen und wird angesichts der klaren Vorgaben des BGH sicherlich nicht dauerhaft Bestand haben können. Die Hamburger Richter verkennen, dass keinesfalls „die unwahrscheinliche Möglichkeit“, dass von einem Dritten (insbesondere der Kinder) Urheberrechtsverletzungen begangen werden, rechtlich 495 geeignet und ausreichend sein kann, vollkommen undifferenziert Prüf- und Handlungspflichten zu begründen, deren Verletzung bzw. Vernachlässigung eine Störerhaftung zu begründen vermag. Erforderlich sind vielmehr klar erkennbare und grobe bzw. offensichtliche Verstöße. Dies ergibt sich nicht nur bereits aus der oftmals vergeblich vor dem LG Hamburg zitierten MöbelklassikerEntscheidung, sondern insbesondere auch im Hinblick auf die Entscheidungen Internetversteigerung I-III. Der BGH hat hier die Anforderungen an die Störerhaftung erneut bekräftigt und konkretisiert. Bereits in der Möbelklassiker Entscheidung des BGH wurde klar herausgearbeitet, dass die urheberrechtliche – wie im Übrigen auch die wettbewerbsrechtliche – Störerhaftung nur in Fälle grober, unschwer zu erkennender Verstöße in Betracht kommen kann. [7] Sofern oftmals die Argumentation vorgetragen wird, diese Entscheidung könne nicht als (allgemeingültiger) Maßstab herangezogen werden, weil es sich hier um eine Sonderkonstellation handele, um – insbesondere mit Blick auf Art. 5 GG – den Schutz der Pressefreiheit zu gewährleisten, ist dies so nicht zutreffend. Sicherlich berücksichtigt die Entscheidung in gewisser Weise (besonders) den Schutz der Pressefreiheit. Dies führt aber nach dem Verständnis der Entscheidung lediglich dazu, dass ein mehr oder weniger pauschaler Hinweis direkt an den angeblichen Störer noch längst nicht zu einer entscheidenden Erhöhung der Prüfungspflicht führen kann. Die presserechtlichen Besonderheiten werden hier also dadurch berücksichtigt, dass die Hinweise durch den Rechtsinhaber oder Dritte konkret sein müssen. In der üblichen Filesharing-Konstellation gibt es aber in der Regel überhaupt keinen, nicht einmal einen allgemeinen, Hinweis darauf, dass über den betroffenen Internetanschluss Urheberrechtsverletzungen begangen werden. Dies berücksichtigend erkennt das LG Mannheim demgegenüber keine Haftung des Internetanschlussinhabers für urheberrechtswidrige Handlungen volljähriger Familienmitglieder. Einen Internetanschlussinhaber trifft im Rahmen zumutbarer Prüfungsund Überwachungspflichten zur Verhinderung von Urheberrechtsverletzungen durch Filesharing hinsichtlich volljähriger Familienmitglieder weder die Obliegenheit einer einweisenden Belehrung in die Internetnutzung noch einer dauerhaften Überprüfung ohne konkreten Anlass. [8] Sachgerecht und vor allen Dingen realitätsnah sind nach Ansicht des LG Mannheim Prüfungs- und Überwachungspflichten nur insoweit anzunehmen, als diese im Rahmen der Erziehung von Kindern in Abhängigkeit von deren Alter auch auf anderen Betätigungsfeldern notwendig ist. Eine dauerhafte Überprüfung des Handelns der eigenen Kinder oder des Ehepartners ist ohne konkreten Anlass nicht zumutbar. Ohne Anlass für die Annahme, dass Familienmitglieder in rechtswidriger Weise Urheberrechte im Rahmen der Nutzung des Internets verletzen, kommt eine ständige Überwachung oder gar eine Sperrung des Anschlusses für diese nicht in Betracht. Ob es allerdings bei Eröffnung des Internetverkehrs für die Kinder einer einweisenden Belehrung bedarf, ist nach dem Alter und dem Grad der Vernunft der jeweiligen Nutzer im Einzelfall zu entscheiden. [9] Vollkommen zutreffend erkennt das LG Mannheim, dass bei einem volljährigen Kind, das nach allgemeiner Lebenserfahrung im Umgang mit Computer- und Internettechnologie einen 496 Wissensvorsprung vor seinen erwachsenen Eltern hat, es sinnvollerweise keiner einweisenden Belehrung über die Nutzung des Internets bedarf. In diesem Fall muss es bei der Beurteilung bleiben, dass die Eltern ein konkretes Familienmitglied nicht ohne Anlass der Begehung unerlaubter Handlungen verdächtigen müssen und dementsprechend zur Einleitung von Überwachungsmaßnahmen verpflichtet wären. In einem weiteren Urteil hat das LG Mannheim die Frage des Umfangs der Prüfungspflichten bei minderjährigen Kindern offen lassen können, da zugleich neben den Kindern auch noch Dritte als Verletzer in Frage kamen, für die eine Störerhaftung unzweifelhaft zu bejahen sei. [10] Denn soweit der Anschlussinhaber bei seinen eigenen Kindern beurteilen kann, ob er Anlass für Belehrungen und Kontrollen im Rahmen der Eröffnung des Internetzugangs hat, kann er dass bei Dritten, wie z.B. Freunden der Kinder, nicht. Wenn der Anschlussinhaber in einem solchen Fall keinerlei Maßnahmen unternimmt, um die von seinem Internetanschluss ausgehenden Handlungen zu prüfen, verstößt er gegen die ihm obliegenden Prüfpflichten und haftet damit unter dem Gesichtspunkt der Störerhaftung. Es ist allerdings davon auszugehen, dass im Falle der Minderjährigkeit durchaus eine andere Betrachtung gerechtfertigt ist. Dogmatisch und unter Berücksichtigung der Rechtsprechungsvorgaben wird in diesem Fall die Störerhaftung aber wohl nicht auf die Verletzung von Prüfpflichten zurückzuführen zu sein, sondern auf eine nicht hinreichend beachtete Instruktionspflicht. Auf derselben Linie wie das LG Mannheim urteil das LG München I: Allein aus der Tatsache der Überlassung eines Internetanschlusses kann ohne weitere konkrete Anhaltspunkte einer drohenden Rechtsverletzung durch den unmittelbar Handelnden eine Störereigenschaft des Anschlussinhabers nicht abgeleitet werden. [11] Keine andere Deutung ist im Übrigen der jüngsten Entscheidung des LG München I [12] zu entnehmen. In dem dort zu beurteilenden Fall ging es nämlich nicht um die Störerhaftung auf Unterlassung, sondern um eine Haftung der Eltern einer Minderjährigen wegen der Verletzung von Aufsichtspflichten gestützt auf § 832 BGB. Eine Abkehr von der früheren Entscheidung des LG München I zu dieser Thematik wollten die Richter hiermit keinesfalls verbunden wissen. Im Gegenteil: Die Kammer betont nochmals die Anlehnung an das LG Mannheim und die grundsätzliche Unterscheidung hinsichtlich der Störerhaftung des Anschlussinhabers, je nachdem, ob es sich um einen volljährigen oder minderjährigen Verletzer handelt. Auch das OLG Frankfurt hat sich dieser Auffassung mittlerweile angeschlossen und spricht sich darüber hinaus für die im Hinblick auf die Entstehung von Prüf- und Überwachungspflichten gebotene Differenzierung zwischen Volljährigkeit und Minderjährigkeit des Urheberrechtsverletzers aus: Eine Pflicht, die Benutzung seines Internetanschlusses zu überwachen oder gegebenenfalls zu verhindern, besteht nunmehr auch nach Ansicht des OLG Frankfurt nur, wenn der Anschlussinhaber konkrete Anhaltspunkte dafür hat, dass der Nutzer den Anschluss zu Rechtsverletzungen missbrauchen wird. [13] 497 Solche Anhaltspunkte bestehen grundsätzlich nicht, solange dem Anschlussinhaber keine früheren Verletzungen dieser Art durch den Nutzer oder andere Hinweise auf eine Verletzungsabsicht bekannt sind oder hätten bekannt sein können. Auch wenn Urheberrechtsverletzungen im Internet häufig vorkommen und darüber in den Medien umfangreich berichtet wird, hat ein Anschlussinhaber nicht bereits deshalb einen Anlass, ihm nahe stehende Personen wie enge Familienangehörige bei der Benutzung seines Anschlusses zu überwachen. Eine Instruktionspflicht dahin, dass mit seinem Internetanschluss keine Urheberrechtsverletzungen begangen werden, trifft den Anschlussinhaber gegenüber seinen volljährigen Familienangehörigen nicht. [14] 3.2. Fazit und Bewertung Die dargestellten Entscheidungen arbeiten im Wesentlichen folgende Ansätze und Konstellationen heraus, die im Hinblick auf die Verantwortlichkeit des Anschlussinhabers unterschiedlich zu bewerten sind: 3.2.1. Unterscheidung zwischen Minderjährigkeit und Volljährigkeit Es zeichnet sich eine zunehmende Differenzierung zwischen Voll- und Minderjährigkeit bzw. eine adäquate Berücksichtigung des Alters und des Grads der Vernunft des jeweiligen Nutzers ab. Belehrungs-, Prüfungs- und Überwachungspflichten können schließlich hinsichtlich der Internetnutzung nur insoweit angenommen werden, als diese im Rahmen der Erziehung von Kindern in Abhängigkeit von deren Alter auch auf anderen Betätigungsfeldern notwendig ist. Eine Pflicht der Eltern, die Benutzung ihres Internetanschlusses zu überwachen oder gegebenenfalls zu verhindern, kann nur dann angenommen werden, wenn der Anschlussinhaber konkrete Anhaltspunkte dafür hat, dass der Nutzer den Anschluss zu Rechtsverletzungen missbrauchen wird. Dies wird wohl unabhängig von einer Voll- oder Minderjährigkeit des Internetnutzers gelten. Damit wirkt sich die Frage der Volljährigkeit oder Minderjährigkeit des Internetnutzers nicht entscheidend im Zusammenhang mit etwaigen Prüfpflichten sondern bei der Frage des Bestehens und des Umfangs etwaiger Instruktionspflichten aus. Gegenüber jüngeren (minderjährigen) Kindern wird man den Eltern wohl - auch das ist den diskutierten Entscheidungen zumindest im Ansatz zu entnehmen - eine Verpflichtung zu einer einweisenden Belehrung bzw. eine Instruktionspflicht auferlegen können, deren Vernachlässigung durchaus zur Begründung der Störerhaftung führen kann. Was den Eltern pauschal aber realistischerweise in diesem Zusammenhang abverlangt werden kann, dürfte höchst problematisch zu beurteilen sein. In diesem Zusammenhang möchte der Verfasser daher unter 5.1. einen allen Beteiligten gerecht werdenden Lösungsvorschlag anbieten. 3.2.2. Haftung für Dritte und die eigenen Kinder Soweit ein Anschlussinhaber den Anschluss Familienangehörigen und insbesondere seinen Kindern zur Verfügung stellt, beruht die Eröffnung des Zugangs zum Internet auf dem familiären Verbund. Prüfungs- und Überwachungspflichten sowie Instruktionspflichten sind nur insoweit anzunehmen, als diese im Rahmen der Erziehung von Kindern in Anhängigkeit von deren Alter auch auf anderen Betätigungsfeldern notwendig ist. [15] 498 Hiermit wird klargestellt, dass eine einweisende Belehrung, sowie eine Überwachung und Überprüfung von volljährigen Familienmitgliedern ohne konkreten Anlass nicht gerechtfertigt sein kann. Eine Unterlassung ist damit auch nicht geeignet, eine Haftung des Anschlussinhabers unter dem Gesichtspunkt der Störerhaftung zu begründen. Diese Grundsätze gelten allerdings nicht für Dritte. Denn soweit der Anschlussinhaber bei seinen eigenen Kindern beurteilen kann, ob er Anlass für Belehrungen und Kontrollen im Rahmen der Eröffnung des Internetzugangs hat, kann er dass bei Dritten, wie z.B. Freunden der Kinder, nicht. Wenn der Anschlussinhaber in einem solchen Fall keinerlei Maßnahmen unternimmt, um die von seinem Internetanschluss ausgehenden Handlungen zu prüfen, verstößt er gegen die ihm obliegenden Prüfpflichten. [16] Auch in diesem Zusammenhang wird man dogmatisch aber wohl eher auf die Instruktionspflicht abstellen müssen. 4. Die Situation in Deutschland und Österreich im Vergleich Österreich ist Deutschland einen entscheidenden Schritt voraus. Am 21.01.08 hat der Oberste Gerichtshof in Österreich eine grundlegende Entscheidung zu der Frage der Haftung des Anschlussinhabers getroffen. [17] Die hierin enthaltene Wertung könnte auch eine (früher oder später) fällige Entscheidung des deutschen Bundesgerichtshofs prägen. Die Ausgangssituation ist identisch mit den Fällen in Deutschland. Wie soll sich auch ein Unterschied ergeben? In Deutschland und Österreich sitzen die Kinder und Jugendlichen vor dem PC, „tauschen“ munter Dateien über das Internet, während die Eltern als Anschlussinhaber hiervon keine Kenntnis und Vorstellung haben. Parallel zu dem Ansatz der deutschen Störerhaftung soll der Beklagte in Österreich als Gehilfe eines Urheberrechtsverstoßes in Anspruch genommen werden. Wer - ohne Täter oder Teilnehmer zu sein - in irgendeiner Weise willentlich und adäquat kausal zur Verletzung eines geschützten Gutes beiträgt, kann nach ständiger Rechtsprechung in Deutschland als Störer für eine Urheberrechtsverletzung in Anspruch genommen werden. Demgegenüber ist nach österreichischem Recht Gehilfe eines urheberrechtlichen (wie auch wettbewerbsrechtlichen) Verstoßes derjenige, der den Täter bewusst fördert. Eine bloß adäquate Verursachung reicht nicht aus, es muss insbesondere auch ein rechtswidriges Verhalten vorliegen. In der Ausgangsposition dieser beiden rechtlichen Konstruktionen ist der Maßstab der österreichischen Teilnahme bzw. Gehilfenhaftung deutlich enger gefasst. Reicht nach deutschem Recht zur Begründung der Störerhaftung bereits ein willentlich und adäquat-kausaler Beitrag, setzt die österreichische Teilnahme eine bewusste Förderung und die Rechtswidrigkeit voraus. An dem Kriterium der Prüfpflicht überschneiden sich jedoch beide Ansätze: Damit sich die Haftung nach deutschem Recht nicht über Gebühr auf Dritte erstreckt, setzt die Störerhaftung die Verletzung von Prüfpflichten voraus. Nach dem österreichischen Ansatz muss der Gehilfe den Sachverhalt kennen, der den Vorwurf gesetzwidrigen Verhaltens begründet oder er muss zumindest eine diesbezügliche Prüfpflicht verletzen. Die Prüfpflicht ist allerdings auf grobe und auffallende Verstöße beschränkt. 499 Nach der Wertung des Obersten Gerichtshofs stellt das bloße Zurverfügungstellen des Computers mit Internetzugang zwar eine adäquate Ursache für die spätere Rechtsverletzung. Der Anschlussinhaber muss aber mangels irgendwelcher Anhaltspunkte nicht damit rechnen, dass seine Kinder bei Nutzung des Internets in Urheberrechte eingreifen würden. Ohne das Hinzutreten besonderer Umstände sind Eltern nicht verpflichtet, die Internetaktivitäten ihrer (minderjährigen) Kinder zu überwachen. Hierbei ist zu beachten, dass die Funktionsweise von Internettauschbörsen und Filesharing-Systemen bei Erwachsenen nicht als allgemein bekannt vorausgesetzt werden können. Handlungs- und Prüfpflichten können sich erst nach Kenntnis des Anschlussinhabers von einem Verstoß ergeben. Diese Argumentation lässt sich zwar nicht bis ins Detail, so doch im Grundsatz auf die Anwendung der Störerhaftung in Deutschland übertragen: Auch hier kann wohl kaum - unter Berücksichtigung der bisherigen höchstrichterlichen Rechtsprechung - ohne konkrete Anhaltspunkte für über den Internetanschluss begangene Rechtsverletzungen eine Begründung von Prüf- und Überwachungspflichten angenommen werden, jedenfalls nicht in Bezug auf volljährige Kinder. In Anlehnung an die sich abzeichnende Tendenz der Land- und Oberlandesgerichte wäre allerdings eine weitergehende Differenzierung hinsichtlich Alter und Reifegrad des Kindes wünschenswert. Bei jüngeren Internetnutzern sollten sich die Eltern - nicht nur im Hinblick auf die mit der Nutzung von Filesharing-Systemen verbundenen Risiken - ihrer Verantwortung bewusst sein. Eine entsprechende einweisende Belehrung sollte man insoweit verlangen können. Wie konkret diese jedoch ausgestaltet sein kann und soll, ist allerdings sicherlich nicht pauschal festzulegen und hängt letztlich - zumindest auch - stark von Bildungsgrad und IT-Affinität der Eltern ab. 5. Ein Lösungsvorschlag zur sinnvollen Begrenzung einer unübersehbaren Haftung 5.1. Lösungsansatz Sicherlich wird man den Eltern im Grundsatz bei minderjährigen Internetnutzern eine gewisse Verantwortung zubilligen können (müssen). Eine entsprechende Tendenz zeichnet sich (zu Recht) in der aktuellen Rechtsprechung ab. Viele Eltern werden trotzdem wohl kaum in der Lage sein, ihre Kinder über die Funktionsweise und die rechtliche Bewertung von Filesharing-Systemen aufzuklären und insoweit etwaigen Handlungspflichten Genüge tragen können, um der Gefahr einer Inanspruchnahme unter dem Gesichtspunkt der Störerhaftung zu entgehen. Ein Warnhinweis am Bildschirm bzw. im Web-Browser könnte hier Abhilfe und in gewissem Maße Sicherheit für alle Beteiligten schaffen. Es wäre durchaus möglich und denkbar, Bildschirme und Internetbrowser mit einem Haftungshinweis auszustatten, die zur Kenntnis genommen werden müssen. Auch in dieser Hinsicht bietet sich eine Vergleichbarkeit zu der oft im Zusammenhang mit der Filesharing-Problematik zitierten Kopierläden-Entscheidung des BGH [18] an. Der Entscheidung lag der Sachverhalt zugrunde, dass Kunden eines Copy-Shops Urheberrechte verletzt haben und der Betreiber unter dem Gesichtspunkt der Störerhaftung in Anspruch genommen werden sollte. 500 Der BGH gelangte zu der Auffassung, dass ein in den Allgemeinen Geschäftsbedingungen enthaltener Hinweis auf fremde Urheberrechte und die Verpflichtung zur Beachtung dieser, deutlich sichtbar im Ladenlokal angebracht, ausreiche, um die Begründung einer Störerhaftung auszuschließen. Damit habe der Betreiber alle ihm zumutbaren Maßnahmen getroffen, durch die eine Verletzung von Urheberrechten möglichst ausgeschlossen wird. Es mag zwar zunächst auf den ersten Blick etwas seltsam erscheinen, aber ein entsprechender Warnhinweis an der genutzten Hardware bzw. integriert in den verwendeten Internetbrowser sollte angesichts dieser Anforderungen ausreichen, seiner Haftung als Anschlussinhaber vorzubeugen. Sicherlich wird sich unser Auge auch noch hieran gewöhnen – es ist ja schließlich nicht der erste und sicherlich auch nicht der letzte Warnhinweis, den wir wahrzunehmen haben. Gefordert sind hier natürlich vor allem die Hard- und Softwarehersteller. Diese sollten hier eine entsprechende Vorreiterrolle spielen. Die Störerhaftung ließe sich mit guten Gründen (theoretisch, insbesondere mit der Argumentation des LG Hamburg) auch auf die Hersteller von Hard- und Software sowie auf die Provider ausdehnen, mit deren wesentlichen Beiträgen die Urheberrechtsverletzungen überhaupt erst ermöglicht werden. Im Zusammenhang mit der mittlerweile wohl fast einhellig angenommenen Haftung für unverschlüsselte WLAN-Nutzung auch in Bezug auf die Hersteller und Lieferanten der entsprechenden Router. Unproblematisch möglich wäre es sicherlich einen Hinweis wie den folgenden im Rahmen der Ersteinrichtung des verwendeten Webbrowsers bzw. bei der Erstinstallation der verwendeten Hardware, insbesondere des Bildschirms, anzubringen: BITTE BEACHTEN SIE: DIE VERBEITUNG UND ÖFFENTLICHE ZUGÄNGLICHMACHUNG VON URHEBERECHTLICH GESCHÜTZEN MATERIAL ÜBER DAS INTERNET (INSBESONDERE IM RAHMEN SOG. TAUSCHBÖRSEN) STELLT EINE VERLETZUNG HIERAN BESTEHENDER URHEBERRECHTE DAR UND KANN ZU EINER STRAFRECHTLICHEN VERFOLGUNG SOWIE ZU ZIVILRECHTLICHEN UNTERLASSUNGS- UND SCHADENSERSATZANSPRÜCHEN FÜHREN. 5.2. Rechtliche und tatsächliche Bedeutung Ausgehend von der unter 3. dargestellten Rechtsprechung entbindet ein entsprechender Hinweis die Anschlussinhaber / Eltern natürlich nicht von Prüf- und Überwachungspflichten, sofern sich tatsächlich konkrete Hinweise auf etwaige Rechtsverletzungen ergeben sollten, die über den betreffenden Internetanschluss begangen worden sind. Soweit allerdings eine einweisende Belehrung des Anschlussinhabers - wie insbesondere im Zusammenhang mit der Internetnutzung durch Minderjährige - bei Überlassung des Internetanschlusses gefordert wird, sollte der entsprechende Hinweis ausreichen, diesen Anforderungen zu genügen. 501 Ein solcher Hinweis würde die oftmals überforderten Eltern juristisch entlasten und hätte sicherlich auch mehr Nachdruck als ein entsprechend laienhafter und unverständlicher Hinweis der Eltern selbst. Sicherlich würde die Teilnahme an (rechtswidrigen) Peer-to-Peer-Netzwerken merklich zurückgehen. Insoweit wäre also vor allem auch den jeweiligen Rechteinhabern geholfen. Der Ball würde an diejenigen zurückgespielt werden, die in der Ursachenkette an erster Stelle stehen und für die ein derartiger Warnhinweis weder mit großem zusätzlichem Aufwand noch mit Kosten verbunden wäre. Auch aus Gründen der eigenen Absicherung wäre ein derartiger Hinweis für Hersteller von Hard- und Software sowie Provider ratsam. 6. Literaturhinweise [1] siehe http://de.wikipedia.org/wiki/File_Sharing [2] BGH, Urteil vom 18.10.2001 - Az. I ZR 22/99, WRP 2002, 532 - Meißner Dekor I [3] BGHZ 158, 343, 350 - Schöner Wetten; BGH, WRP 2006, 1109 = MIR 2006, Dok. 117 - RechtsanwaltsRanglisten [4] Auszug aus einem standardisierten Abmahnschreiben [5] seit Beschluss v. 21.04.06 – AZ 308 O 139/06; CR 2007, 121 [6] Beschluss vom 13.04.2007, Az. 12 O 87/07 [7] BGH GRUR 1999, 418-420 – Möbelklassiker [8] LG Mannheim, Urteil v. 30.01.07 – AZ 2 O 71/06; CR 2007, 395 [9] LG Mannheim, aaO [10] LG Mannheim - AZ 7 O 62/06 [11] LG München I, CR 2008, 49, 51 [12] LG München I, Urteil v. 19.06.08 – AZ 7 O 16402/07 [13] OLG Frankfurt, Beschluss v. 20.12.07 – AZ 11 W 58/07 [14] OLG Frankfurt, aaO [15] LG Mannheim - AZ 7 O 62/06 [16] LG Mannheim, aaO [17] OGH, Beschluss vom 22.01.2008 - Az. 4Ob194/07v [18] BGH NJW 1984, 1106-1108 – Kopierläden 502 PERFORMANCE & MONITORING, IT-CONTROLLING Das IT-Performance-Management / IT-Controlling ist in IT-Abteilungen und bei IT-Dienstleistern integraler Bestandteil aller Management- und Führungsfunktionen. Technologische Änderungen und neue Managementkonzepte müssen laufend im Controlling adaptiert und ihr Erfolg muss nachgewiesen werden. Die erfolgreiche Steuerung der IT bzw. der Informatik hängt unmittelbar damit zusammen: Wie lässt sich der Erfolg und der Wertbeitrag der IT messbar und damit steuerbar gestalten? Seit Beginn der elektronischen Datenverarbeitung wurde dazu eine Vielzahl von Controllinginstrumenten entwickelt und eingesetzt. Die Ansätze reichen hier von speziell für die IT entwickelten Kennzahlensystemen bis zur Übertragung der Balanced Scorecard oder industrieller Controllingkonzeptionen in den IT-Bereich. Die zentrale Aufgabenstellung ist dabei, die richtige IT-Controllingkonzeption und die passenden Controllinginstrumente auszuwählen. Leitungsgremium: Ulrike Baumöl, FernUniversität in Hagen Walter Brenner, Universität St. Gallen (Federführender) Günter Haring, Universität Wien Programmkomitee: Stefan Eicker, Universität Duisburg-Essen Norbert Hoffmann, Swiss Life Reinhard Jung, Universität Duisburg-Essen Michael Klaas, Universität St. Gallen Lutz Kolbe, Georg-August-Universität Göttingen Helmut Krcmar, Technische Universität München Thomas Myrach, Universität Bern Jochen Scheeg, T-Systems Enterprise Services Stefan Strecker, Universität Duisburg-Essen, Campus Essen Rüdiger Zarnekow, Technische Universität Berlin PRODUKTIONSPLANUNG UND -STEUERUNG DER IT-SERVICE-PROVISIONIERUNG Nico Ebert, Alexander Vogedes, Falk Uebernickel1 Kurzfassung Aufgrund von steigendem Kostendruck und zunehmender Kundenorientierung haben ITDienstleister ihre Dienstleistungen standardisiert. Derzeit fehlen jedoch Lösungsansätze, um komplexe Dienstleistungen, an deren Produktion viele Bereiche beteiligt sind, effizient und mit gleichbleibender Qualität bereitzustellen. Im Beitrag wird untersucht, welches die Voraussetzungen für die Verwendung von Konzepten der Produktionsplanung und -steuerung für die Provisionierung von standardisierten IT-Services sind. Ausgehend von der Ableitung der Anforderungen aus der Literatur und aus zwei Praxisprojekten bei IT-Dienstleistern erfolgt die Vorstellung eines Grobkonzepts zur Produktionsplanung und -steuerung. 1. Einleitung Die Anforderungen an unternehmensinterne und externe IT-Dienstleister unterliegen einem Wandel: steigende Kunden- und Dienstleistungsorientierung führen bei IT-Organisationen zur Professionalisierung und zur Anwendung etablierter Konzepte aus der Industrie [7]. Diese „Industrialisierung“ betrifft insbesondere die IT-Produktion, die den Betrieb, die Instandhaltung und den Support von IT-Systemen gewährleistet [12, 8]. Der Anteil der Kosten der IT-Produktion an den IT-Budgets von Unternehmen ist in der Praxis bedeutend. Er wird – zusammen mit den Kosten für die Weiterentwicklung der Produktion – auf über 80% geschätzt. Experten gehen davon aus, dass ein Großteil der damit verbundenen Kapazitäten nur unzureichend genutzt wird [35, 33]. Parallel zum Kostendruck erhöht sich die Komplexität innerhalb der Produktion, da Kunden zunehmend integrierte Leistungsbündel zur Unterstützung von Kundenprozessen anstelle systemnaher Leistungen wie Server-Betrieb oder PC-Betreuung nachfragen [1, 2]. Dies setzt die übergreifende Koordination verschiedener Bereiche wie ServerManagement, Speicher-Management oder Netz-Management voraus [14,5]. Kostendruck und veränderte Kundennachfrage haben in den vergangenen Jahren zu einem Umdenken bei IT-Dienstleistern geführt. Anstelle von kundenindividuellen Projektleistungen, werden standardisierte und kundenindividuell kombinierte Bündel aus einzelnen IT-Services zur Geschäftsprozessunterstützung, so genannte IT-Produkte, angeboten [33]. Zwar haben mittlerweile 1 Universität St. Gallen, Switzerland 505 viele IT-Dienstleister ihr Leistungsportfolio standardisiert und über Servicekataloge beschrieben [7], allerdings wurde die effiziente und effektive Provisionierung der IT-Services wenig betrachtet. Dies wird am in der Praxis weit verbreiteten Referenzmodell ITIL deutlich, das keinen Ansatz für die bereichsübergreifende Planung und Steuerung der Provisionierung beinhaltet [24]. Auch in wissenschaftlichen Ansätzen im Bereich des IT-Managements liegt der Schwerpunkt bisher primär auf der kapazitativen Dimensionierung von IT-Systemen [22,4]. Die Planung und Steuerung der Provisionierung mit betriebswirtschaftlichen Methoden wird nach Kenntnisstand der Autoren ausschließlich in einem Ansatz [34] betrachtet, der jedoch nicht die Konzeption der erforderlichen Systemunterstützung umfasst. In diesem Beitrag wird als ein möglicher Lösungsansatz für die geschilderten Herausforderungen ein Konzept zur Planung und Steuerung der IT-Service-Provisionierung vorgestellt, das sich an die industrielle Produktionsplanung und -steuerung (PPS) anlehnt. Zunächst erfolgt ein Überblick über das gewählte Forschungsvorgehen, bevor im Anschluss eine genauere Betrachtung der Merkmale der Provisionierung erfolgt. Schließlich wird ein Grobkonzept für die PPS der Provisionierung präsentiert. Abschließend erfolgen eine Zusammenfassung sowie ein Ausblick auf weitere Forschungsarbeiten. 2. Forschungsvorgehen Der vorgestellte Beitrag stützt sich auf zwei Forschungsprojekte, die zusammen mit der Deutschen Beta Services GmbH2 und der Schweizer Swisscom IT Services AG seit April 2007 durchgeführt wurden. Sie hatten die Analyse von Einsatzpotenzialen der PPS in der Provisionierung von standardisierten IT-Services und die Umsetzung eines ERP-Systems für IT-Dienstleister zum Ziel. Zwischen April 2007 und November 2007 erfolgte im ersten Projekt zunächst die Anforderungsaufnahme im PC-Dienstleistungsgeschäft (Desktop Services) bei der Swisscom IT Services AG. Parallel dazu wurde im August 2007 im zweiten Projekt mit der Anforderungsaufnahme in den Produktionsbereichen Rechnenzentrumsbetrieb, SAP-Systembetrieb, WAN-Management, LANManagement und PC-Dienstleistungen der Beta Services GmbH begonnen. Derzeit erfolgt die Umsetzung eines Detailkonzepts bei Beta Services in einem SAP R/3-Prototyp, die voraussichtlich Ende des Jahres 2008 abgeschlossen wird, und im Anschluss die Beurteilung des Prototyps durch die Produktionsbereiche. In beiden Projekten wurde die Aufnahme der Anforderungen zusammen mit Experten und unter Berücksichtigung von bestehenden Unterlagen (zum Beispiel Produktkatalog und Prozessbeschreibungen) aus den jeweiligen Bereichen durchgeführt. 3. Produktionsplanung und -steuerung der IT-Service-Provisionierung In der Realgüterproduktion hat die Produktionsplanung und -steuerung (PPS) die Aufgabe „aufgrund erwarteter und/oder vorliegender Kundenaufträge den mengenmäßigen und zeitlichen Produktionsablauf unter Beachtung der verfügbaren Ressourcen durch Planvorgaben festzulegen, diese zu veranlassen sowie zu überwachen und bei Abweichungen Maßnahmen zu ergreifen, so dass bestimmte betriebliche Ziele erreicht werden.“ [32]. Die Aufgaben der PPS stellt Abbildung 1 dar. Für die Unterstützung der PPS haben sich seit den 60er Jahren computergestützte Produktionsplanungs- und -steuerungssysteme (PPS-Systeme) etabliert [19]. Trotz der Weiterentwicklungen der PPS-Systeme zu Enterprise Resource Planning (ERP)-Systemen sind deren Kernaufgaben heute nach wie vor identisch [23]. Als zentrale Voraussetzung für die Verwendung von PPS-Systemen nicht nur im Bereich der Realgüterproduktion, sondern auch für Erstellung von Dienstleistungen, 2 Name wurde verfälscht. 506 wird die Standardisierung der Leistungen genannt [10,11, 27, 30]. Da es sich bei den hier betrachteten IT-Services nicht um kundenindividuelle sondern standardisierte Leistungen handelt, kann die Voraussetzung als erfüllt betrachtet werden. Teilbereiche der PPS Hauptaufgaben Produktionsprogrammplanung Produktionsplanung Mengenplanung Termin- und Kapazitätsplanung Produktionssteuerung Auftragsveranlassung Auftragsüberwachung Abbildung 1 – Aufgaben der PPS [15] Nachfolgend wird zunächst die IT-Service-Provisionierung aus produktionswirtschaftlicher Sicht betrachtet, bevor dann die Anforderungen an die PPS und daraus abgeleitete Erweiterungen zum ursprünglichen PPS-Ansatz vorgestellt werden. 3.1. Grundlagen der IT-Service-Provisionierung In einem Produktionssystem werden Produktionsfaktoren (Input) in einer Faktorkombination (Throughput) zu Leistungen (Output) kombiniert [32]. Analog zur Realgüterproduktion kann auch die Erstellung von Dienstleistungen als ein Produktionssystem verstanden werden [9,13,21], wobei Dienstleistung als der Output der Kombination von Produktionsfaktoren verstanden werden kann [13]. Im Unterschied zur Realgüterproduktion ist jedoch in den Erstellungsprozess der Dienstleistung ein externer Faktor integriert [13]. Bei externen Faktoren handelt es sich im Gegensatz zu internen Inputfaktoren „um Personen oder Objekte, die innerhalb der Faktorkombination in zeitlicher, artmäßiger, mengenmäßiger und örtlicher Hinsicht nicht der Dispositionsgewalt des Dienstleisters unterliegen, sondern durch den Kunde der Dienstleistung festgelegt werden.“ [21]. In der IT-Service-Provisionierung werden Produktionsfaktoren wie Server, Arbeitsplatzsysteme, Softwarelizenzen, Netze und menschliche Arbeitsleistung innerhalb von Prozessen zu IT-Systemen kombiniert, welche die Geschäftsprozesse eines Kunden unterstützen. Neben internen Produktionsfaktoren sind externe Faktoren in die Provisionierung integriert. Dies können sowohl der Kunde der Dienstleistung selbst (zum Beispiel der Benutzer), als auch IT-Systemkomponenten, Daten, Softwarelizenzen oder Gebäude des Kunden sein [3]. Da IT-Systeme in der Regel über einen längerfristigen Zeitraum betrieben werden, schließen Kunde und Dienstleister Rahmenverträge, die Leistungsbeschreibungen und Qualitätsvereinbarungen enthalten [31]. Die Erbringung von standardisierten IT-Services kann in die Phasen Entwicklung, Beauftragung, Provisionierung, Betrieb, Veränderung und Deinstallation eingeteilt werden [15]. Ausgehend davon können sowohl Provisionierungs- als auch Deinstallationsprozesse unterschieden werden: • Provisionierung: Die Provisionierungsprozesse dienen der Bereitstellung eines IT-Service für den nachfolgenden Betrieb. Die Bereitstellung umfasst zum Beispiel den Erwerb und die Bereitstellung von IT-Systemkomponenten, das Einrichten von Benutzerkonten, die Bereitstellung von Lizenzen und die Auslieferung von Systemkomponenten an den Kundenstandort (zum Beispiel PC). Die Provisionierungsprozesse können sowohl bei der initialen Be- 507 reitstellung eines IT-Service als auch bei der Veränderung eines IT-Services ausgeführt werden. • Deinstallation: Die Prozesse zur Deinstallation dienen der Außerbetriebnahme von ITServices. Die Außerbetriebnahme umfasst zum Beispiel den Abbau von ITSystemkomponenten und die Übergabe von kundeneigenen Daten an den Kunden. Deinstallierte IT-Systemkomponenten können zum Teil – analog zu Recyclinggütern – wiedereingesetzt werden. Als besondere Eigenschaft verfügt die IT-Produktion über einen IT-Systembestand, der in der Provisionierung und Deinstallation manipuliert wird. Der Systembestand beinhaltet diejenigen ITSystemkomponenten, die durch den IT-Dienstleister für seine Kunden betrieben und instandgehalten werden. Provisionierung und Deinstallation können sowohl zu einem Zugang zum als auch zu einem Abgang vom IT-Systembestand führen. In der Praxis wird der Systembestand mit Hilfe einer Configuration Management Database (CMDB) abgebildet [24]. 3.2. Anforderungen an die PPS der IT-Service-Provisionierung Zur Ableitung der Anforderungen an die PPS ist zunächst eine grobe Charakterisierung der Merkmale der IT-Service-Provisionierung erforderlich. Diejenigen Merkmale, die unspezifisch für die IT-Service-Provisionierung sind, können bestehenden Typologien der Realgüterproduktion entnommen werden. Die Typologien ermöglichen die grobe Analyse von Auftragsabwicklungsprozessen anhand von Merkmalen und erlauben die Ableitung von Anforderungen an die PPS. Eine grundlegende Arbeit dazu stellt die Typologie von Schomburg dar, zu der mittlerweile einige Erweiterungen existieren [20,25]. Im Folgenden sollen lediglich jene Merkmale von Schomburg betrachtet werden, die für die Bestimmung des Fertigungstyps erforderlich sind. Dies sind die Merkmale Erzeugnisspektrum und Auftragsauslösungsart [16]. Neben den unspezifischen Merkmalen, werden im Folgenden ebenfalls Merkmale betrachtet, die spezifisch für die Provisionierung von ITServices sind. Erzeugnisspektrum: Die Individualität der Erzeugnisse wird durch das Merkmal Erzeugnisspektrum erfasst [28]. Es reicht von Erzeugnissen nach Kundenspezifikation bis hin zu Standarderzeugnissen ohne Varianten. Da IT-Services nicht nach Kundenspezifikation erstellt werden, können sie als kundenspezifisch angepasste Leistungen (typisierte Erzeugnisse mit kundenspezifischen Varianten) und als Standardleistungen mit und ohne Varianten aufgefasst werden. Auftragsauslösungsart: Das Merkmal Auftragsauslösungsart kennzeichnet die Art der Auslösung des Primärbedarfs [28]. Es lassen sich die beiden Extremformen Produktion auf Lager und Produktion auf Bestellung mit Einzelaufträgen unterscheiden. Während bei der Produktion auf Lager Erzeugnisse für einen anonymen Markt ohne Vorliegen eines Kundenauftrags gefertigt werden, erfolgt im zweiten Fall die Produktion ausschließlich aufgrund konkreter Kundenaufträge [19]. Da grundsätzlich ein Auftrag die Erbringung der Dienstleistung auslöst, wird der Primärbedarf bei der IT-Service-Provisionierung erst durch den konkreten Kundenauftrag aufgelöst. Eine teilweise Provisionierung von Servicekomponenten ist jedoch möglich, sofern diese erwartungsorientiert disponiert werden können. Aus den beiden Merkmalsausprägungen ergeben sich Auswirkungen auf die Produktionsprogrammplanung der IT-Service-Provisionierung. Bedingt durch die Produktion auf Bestellung ist eine häufige Anpassung des Programms an den aktuellen Auftragsbestand erforderlich [16]. Mittelfristig ist in der Produktionsprogrammplanung häufig nur eine Absatzprognose bezogen auf Produktgruppen bzw. -arten möglich, da die genauen Varianten im Vorfeld nicht bekannt sind [16,19]. Ein PPS508 System muss bei Produktion auf Bestellung zu jedem Zeitpunkt genaue Informationen zu einem Kundenauftrag bzw. abgeleiteten Fertigungsaufträgen liefern können, um zum Beispiel bei Störungen die betroffenen Kundenaufträge zu identifizieren [19]. Erweiterte Abhängigkeiten zwischen IT-Servicekomponenten: IT-Services werden in der Regel als Bündel von IT-Servicekomponenten vertrieben. Neben diesen Vertriebsabhängigkeiten existieren erweiterte Abhängigkeiten zwischen Komponenten innerhalb der Provisionierungsprozesse. Zum Beispiel kann mit dem Kunden neben der einmaligen Bereitstellung eines Service zur Datenverarbeitung eine regelmäßige Sicherung der Kundendaten vereinbart werden. Bestehende Abhängigkeiten müssen einerseits innerhalb der Planung und Steuerung berücksichtigt werden. Zum anderen müssen diese Abhängigkeiten innerhalb eines PPS-Systems geeignet abgebildet werden. IT-Systembestand: In der IT-Service-Provisionierung existiert ein IT-Systembestand, der solche Produktionsfaktoren enthält, die zur Erstellung von IT-Services erforderlich sind [18]. Er umfasst zum Beispiel genutzte Softwarelizenzen, verwendete Arbeitsplatzsysteme oder bestehende Dienstleistungsverhältnisse. In der Produktionsplanung und -steuerung müssen Mengenflüsse des ITSystembestands berücksichtigt werden. Es sind nicht nur Zugänge in den IT-Systembestand möglich, sondern auch – analog zu externen Lieferungen – Abgänge aus dem IT-Systembestand in den Lagerbestand, da nicht mehr von einem IT-Service genutzte Produktionsfaktoren prinzipiell wiedereingesetzt werden können. Eine Systemunterstützung der PPS muss zunächst den ITSystembestand in geeigneten Datenstrukturen abbilden, um zum Beispiel zur Störungsbehebung Informationen über den Status der Produktionsfaktoren zu erhalten. Ferner sind Methoden und Datenstrukturen erforderlich, um die Mengenflüsse des IT-Systembestands in der Planung und Steuerung zu berücksichtigten. Integration des externen Faktors: Durch die Einbindung des Kunden in die IT-ServiceProvisionierung respektive seiner Daten, IT-Systeme etc. erhöht sich die Unsicherheit in der Planung und Steuerung für den IT-Dienstleister. Zum Beispiel können unbekannte Systeme beim Kunden oder fehlende Kundeninformationen zu Verzögerungen in der Bereitstellung eines ITService führen. Die Unsicherheit kann in der Planung und Steuerung durch Erfahrungswerte reduziert werden. Ein PPS-System sollte neben den externen Faktoren selbst auch Erfahrungswerte zu deren Disposition berücksichtigen und über geeignete Datenstrukturen verfügen. 3.3. Produktionsplanung und -steuerung Ausgehend von den Teilaufgaben der PPS und den im vorherigen Abschnitt vorgestellten Anforderungen wird in diesem Abschnitt ein Grobkonzept für die PPS der IT-Service-Provisionierung vorgestellt. Dabei liegt der Schwerpunkt auf den erforderlichen Anpassungen und Erweiterungen der Produktionsprogrammplanung und Mengenplanung sowie der dazu erforderlichen Grunddaten, da sich dort die größten Unterschiede zur industriellen PPS ergeben. 3.3.1. Erweiterung der Grunddaten Die wichtigsten Grunddaten der PPS sind Daten über Teile, Erzeugnisstrukturen, Arbeitsgänge, Arbeitspläne, Betriebsmittel-/Arbeitsplätze und Fertigungsstrukturen [19]. Da der Schwerpunkt in diesem Beitrag auf der Produktionsprogramm- und Mengenplanung liegt, werden im Folgenden nur die Teil- und Erzeugnisstrukturdaten betrachtet. Da in der IT-Service-Provisionierung zusätzlich zu Realgütern wie Server oder PCs auch immaterielle Güter wie Lizenzen oder Dienstleistungen genutzt werden können, kann der Teilestamm auch immaterielle Güter enthalten. Ist ein IT-Service relevant für den IT-Systembestand (als Zugang 509 oder Abgang) muss für ein Teil ein zusätzliches Attribute „bestandsrelevant“ gepflegt werden. Dieses erlaubt Aussagen über die Veränderung des IT-Systembestands durch die Provisionierung eines IT-Service. Aufgrund der Integration des externen Faktors in die IT-Service-Provisionierung ist es zweckmäßig neben den üblichen Teiletypen Eigenteil und Fremdteil [26] auch einen Typ Kundenteil zu definieren, der externe Faktoren spezifiziert. Ein Kundenteil besitzt die Dispositionsart „Disposition durch Kunde“, da es der Dispositionsgewalt des Kunden unterliegt. Für ein Kundenteil kann analog zu Fremdteilen das Attribut Prozesszeit definiert werden, welches erfahrungsbasierte oder mit dem Kunden vereinbarte Angaben zur Dauer von gemeinschaftlich erbrachten Prozessen enthält. Durch diese zusätzlichen Informationen wird eine Reduzierung der Unsicherheit innerhalb der Planung und Steuerung ermöglicht. Die Erzeugnisstruktur eines IT-Service kann – wie Dienstleistungen im allgemeinen – als Stückliste abgebildet werden [6], allerdings ist analog zur Realgüterproduktion die Abhängigkeit zwischen Bedarfen für Servicekomponenten erforderlich [30]. Zum Zweck des Vertriebs können die ITServices mit Hilfe von Vertriebsstücklisten abgebildet werden, die lediglich das Mengengerüst der Servicekomponenten allerdings keine Abhängigkeiten in der Provisionierung beinhalten [26]. Dies ermöglicht es, Leistungsbündel zu bilden. Innerhalb der Provisionierung sind unterschiedliche Arten von Erzeugnisstrukturen für IT-Services notwendig, um sowohl den Zugang zum IT-Systembestand als auch den Abgang vom ITSystembestand geeignet abzubilden. Während die Erzeugnisstrukturen für einen IT-Service mit Bestandszugang weitestgehend denen der Realgüterproduktion entsprechen, ist in Erzeugnisstrukturen von Services mit Bestandsabgang eine Kennzeichnung der Abgänge erforderlich. Dieser Sachverhalt kann analog zu Recyclingerzeugnissen, welche zerlegt und wiederverwendet werden, durch negative Bedarfsvorzeichen gekennzeichnet werden [29]. Zusätzlich zur Berücksichtigung der Zu- und Abgänge des Systembestands, ist eine Abbildung der erweiterten Abhängigkeiten innerhalb der Erzeugnisstrukturen notwendig. Zu diesem Zweck ist eine Erweiterung der ursprünglichen Beziehung zwischen Elementen der Erzeugnisstruktur erforderlich. Abbildung 2 zeigt drei einfache Beispiele für die unterschiedlichen Erzeugnisstrukturtypen. Negative Mengenkoeffizienten beim Bestandsabgang sind durch die umgekehrte Pfeilrichtung verdeutlicht. IT-Service mit Bestandzugang IT-Service mit Bestandsabgang IT-Service mit erweiterter Abhängigkeit E-Mail-Konto bereitstellen E-Mail-Konto entfernen E-Mail-Konto bereitstellen X Y X +1 +1 +1 a b a Mailbox Benutzerlizenz Mailbox +1 +1 +1 c b Benutzerlizenz archivierte E-Mails +1 a Mailbox b Benutzerlizenz d Datensicherung Abbildung 2 – Beispiele für unterschiedliche Erzeugnisstrukturen in der Provisionierung 3.3.2. Erweiterung der Produktionsprogrammplanung 510 In der industriellen PPS werden in der Produktionsprogrammplanung die zu produzierenden Erzeugnisse auf Basis von Absatzprognosen und Kundenaufträgen nach Art, Menge und Termin festgelegt [32]. Obwohl bei Produktion auf Bestellung individuelle Kundenaufträge die primäre Quelle für das Programm sind, ist eine auftragsanonyme Grobplanung dennoch sinnvoll, sofern sich die Erzeugnisse, zum Beispiel aufgrund der Standardisierung, auf einer höheren Betrachtungsebene etwa der Produktgruppe weniger stark unterscheiden [32]. Die Grobplanung setzt die Rahmenbedingungen für die zukünftige Produktionsdurchführung und bildet unter anderem die Grundlage für die Beschaffungsplanung, Investitionsplanung und die Fertigungsplanung von denjenigen Komponenten, die erwartungsorientiert disponiert werden können [19]. In der PPS der IT-Service-Provisionierung ist aufgrund der Standardisierung der Erzeugnisse ebenfalls die auftragsanonyme Grobplanung auf Servicegruppen oder -arten möglich. Neben Absatzprognosen können in der Grobplanung vorliegende Rahmenaufträge berücksichtigt werden. Die Ermittlung des Bedarfs an erwartungsorientiert disponierten Komponenten unterscheidet allerdings von der Brutto-/Nettorechnung des ursprünglichen PPS-Ansatzes. Im Unterschied zum ursprünglichen Vorgehen, bei dem ein einfacher Brutto-/Nettoabgleich mit dem Lagerbestand erfolgt [32], ist in der PPS der Service-Provisionierung eine zweistufige Bedarfsermittlung erforderlich, da potenzielle Zu- und Abgänge in bzw. aus dem IT-Systembestand berücksichtigt werden müssen. In einem ersten Schritt erfolgt daher eine Brutto-/Nettorechnung bezogen auf die Zu- und Abgänge des Systembestands. Das Ergebnis des Schritts bildet schließlich den Bruttobedarf für den zweiten Schritt der Bedarfsermittlung, indem der Bruttobedarf mit dem Lagerbestand abgeglichen wird. Das Ergebnis der Bedarfsermittlung ist der noch zu produzierende bzw. zu beschaffende Nettobedarf an Servicekomponenten. Der weitere Prozess der Produktionsprogrammplanung in der PPS besteht aus der Kundenanfrage, Angebotsbearbeitung sowie Auftragserteilung [19]. 3.3.3. Erweiterung der Mengenplanung Nach der Produktionsprogrammplanung liegt in der industriellen PPS ein Programm vor, welches sich aus Kundenauftragsbedarfen und Bedarfen von erwartungsorientiert disponierten Komponenten zusammensetzt. Die Aufgabe der Mengenplanung besteht in der Bestimmung der Fertigungs-/ bzw. Bestellaufträge für alle Komponenten nach Art und Zeit unter Beachtung des Programms, so dass eine wirtschaftliche Produktion ermöglicht wird [19, 32]. Bei der kundenauftragsorientierten Disposition erfolgt zunächst ein Brutto-/Nettoabgleich unter Berücksichtigung der Lagerbestände, die Losbildung und schließlich die Vorlaufverschiebung. Das Ergebnis der Mengenplanung sind die Fertigungs- bzw. Beschaffungsaufträge, die Mengen je Perioden je Komponente enthalten [32]. In der IT-Service-Provisionierung kann sowohl die erwartungs- als auch die kundenauftragsbezogene Disposition erforderlich sein (siehe Abbildung 3). Zum Beispiel erfolgt die Disposition einer kundenspezifisch konfigurierten Mailbox kundenauftragsbezogen, da erst zum Zeitpunkt des Auftragseingangs die exakte Konfiguration bekannt ist. Der dazu erforderliche Speicherplatz kann hingegen erwartungsbezogen disponiert werden, um eine kurzfristige Bereitstellung der Mailbox zu ermöglichen. Im Gegensatz zur Mengenplanung im ursprünglichen PPS-Ansatz müssen einige Besonderheiten berücksichtigt werden. Bevor die Ermittlung der Sekundärbedarfe erfolgen kann, ist innerhalb der Stücklistenauflösung auch die Auflösung der erweiterten Abhängigkeiten zwischen ITServicekomponenten erforderlich. Beispielsweise können bei der Bereitstellung eines E-MailKontos die Bedarfe für die tägliche Datensicherung ermittelt und eingeplant werden. Analog zum 511 Vorgehen in der Grobplanung ist auch in der Brutto-/Nettorechnung die Berücksichtigung von Zugängen in den Lagerbestand notwendig, die aus dem IT-Systembestand resultieren. Deshalb ist zunächst eine systembestands- und danach eine lagerbestandsbezogene Brutto-/Nettorechnung erforderlich. E-Mail-Konto bereitstellen X +1 Mailbox a +1 b OS- Lizenz auftragsbezogene Disposition +1 Speicherplatz erwartungsbezogene Disposition e Abbildung 3 – Beispiele für unterschiedliche Dispositionsarten Zusätzliche Besonderheiten ergeben sich bei der zeitlichen Sekundärbedarfsverschiebung. Aus der Integration von externen Faktoren in Form von Kundenteilen in die Prozesse resultieren Unsicherheiten für die Dauer der Prozessausführung. Zur Reduzierung der Unsicherheit kann der Rückgriff auf die Erfahrungswerte und Vereinbarungen erfolgen, die an den Teilestammdaten hinterlegt werden. Eine weitere Besonderheit ergibt für die Art der zeitlichen Verschiebung. In der industriellen PPS wird lediglich der erforderliche zeitliche Vorlauf für die Produktion oder Beschaffung von Bedarfen berücksichtigt und die Sekundärbedarfe in vorgelagerte Perioden verschoben [32]. In der IT-Service-Provisionierung müssen ebenso Dauern für Deinstallationsprozesse mit Abgängen aus dem Systembestand berücksichtigt werden, zum Beispiel für den Abbau von ITSystemkomponenten. Dies kann durch die zeitliche Verschiebung entsprechender Zugänge in nachfolgende Perioden gewährleistet werden. In Analogie zur Vorlaufverschiebung kann dieses Vorgehen als Rücklaufverschiebung bezeichnet werden. 4. Zusammenfassung und Ausblick Im vorliegenden Beitrag wurde ein erster Lösungsansatz für die Produktionsplanung und steuerung der IT-Service-Provisionierung vorgestellt. Für diesen Zweck wird die Verwendung und Erweiterung bestehender PPS-Konzepte vorgeschlagen, da die Provisionierung von standardisierten IT-Services große Ähnlichkeiten zur Realgüterproduktion aufweist. Durch die Verwendung von PPS soll eine Verbesserung der Planungs- und Dienstleistungsqualität sowie der Auslastung der Ressourcen erreicht werden. Wie der Beitrag aufgezeigt hat, sind einige spezifische Erweiterungen der Grunddaten und der Aufgaben der PPS erforderlich. Dies betrifft insbesondere die Berücksichtigung des ITSystembestands. Die Erweiterungen beschränken sich jedoch auf einen Umfang, der die Verwendung von PPS- bzw. ERP-Systemen als Ausgangspunkt für die Systemunterstützung der ITService-Provisionierung sinnvoll erscheinen lässt. Zum Zweck der Implementierung erfolgt daher eine Konkretisierung des vorgestellten Grobkonzepts vor dem Hintergrund der tatsächlichen Umsetzung in einem ERP-System. Die Umsetzung 512 und Erprobung des beschriebenen Ansatzes erfolgt derzeit im Rahmen eines Prototyp-Projekts bei der Beta Services GmbH. Aufgrund seiner weiten Verbreitung im europäischen Raum wurde SAP R/3 als Referenzsystem für die Implementierung gewählt. 5. Literaturverzeichnis [1] BERTLEFF, C., Einführung einer IT-Leistungsverrechnung zur Unterstützung des strategischen IT-Controllings, in: H. Heilmann (Hrsg.), Strategisches IT-Controlling, d.punkt verlag, Heidelberg 2001. [2] BÖHMANN, T., GOTTWALD, R., KRCMAR, H., Towards mass-customized IT services: Assessing a method for identifying reusable service modules and its implication for IT service management, in: Proceedings of the Americas Conference on Information Systems (AMCIS), Nebraska 2005. [3] BÖHMANN, T., Modularisierung von IT-Dienstleistungen, Deutscher Universitätsverlag, Wiesbaden 2004. [4] BRANDL, R., BICHLER, M., STRÖBEL, M., Cost Accounting for Shared IT Infrastructures - Estimating Resource Utilization in Distributed IT Architectures, in: Wirtschaftsinformatik. Bd. 2 (2007). [5] BRITZELMAIER, B., Eine Grundrechnung als Basis für einen Profit-Center-Ansatz in der Informationsverarbeitung, in: J. Herget (Hrsg.), Informationscontrolling, Univ. Verl. Konstanz, Konstanz 1995. [6] BULLINGER; H.-J., FÄHNRICH, K.-P., MEIREN, T., Service engineering - methodical development of new service products, in: International Journal Of Production Economics. Bd. 3 (2003). [7] CAPGEMINI, Studie IT-Trends 2007, CapGemini, Berlin 2007. [8] CAPGEMINI, Studie IT-Trends 2008, CapGemini, Berlin 2008. [9] CORSTEN, H., GÖSSINGER, R., Dienstleistungsmanagement. 5. Auflage, Oldenbourg, München 2007. [10] COX, J.F., JESSE, R.R., Application of Material Requirements Planning to Higher Education, in: Decision Sciences. Bd. 2 (1981). [11] DIETRICH, B., Resource planning for business services, in: Communications of the ACM. Bd. 7 (2006). [12] EITO, European Information Technology Observatory 2006, European Information Technology Observatory European Economic Interest Grouping, Frankfurt 2006. [13] FANDEL, G., BLAGA, S., Aktivitätsanalytische Überlegungen zu einer Theorie der Dienstleistungsproduktion, in: Zeitschrift für Betriebswirtschaft Ergänzungsheft. Bd. 1 (2004). [14] FÜRER, P.J., Prozesse und EDV-Kostenverrechnung, Paul Haupt, Bern 1994. [15] GARSCHHAMMER, M., et al., The MNM Service Model - Refined Views on Generic Service Management, in: Journal of Communications and Networks. Bd. 4 (2001). [16] GLASER, H., GEIGER, W., ROHDE, V., PPS - Produktionsplanung und -steuerung. Grundlagen - Konzept Anwendungen. 2. Auflage, Gabler, Wiesbaden 1992. [17] HACKSTEIN, R., Produktionsplanung und -steuerung (PPS). Ein Handbuch für die Betriebspraxis. 2. Auflage, VDI Verlag, Düsseldorf 1989. [18] HEINRICH, L.J., LEHNER, F., Informationsmanagement, Oldenbourg, München 2005. [19] KURBEL, K., Produktionsplanung und -steuerung im Enterprise Resource Planning und Supply Chain Management. 6. Auflage, Oldenbourg, München 2005. [20] LOOS, P., Produktionslogistik in der chemischen Industrie, Gabler, Wiesbaden 1997. 513 [21] MALERI, R., Grundlagen der Dienstleistungsproduktion. 4. Auflage, Springer, Berlin 1997. [22] MENASCE, D.A., ALMEIDA, V.A.F., DOWDY, L.W., Capacity Planning and Performance Modeling - From Mainframes to Client-Server Systems. Prentice Hall, Englewood Cliffs 1994. [23] MERTENS, P., Integrierte Informationsverarbeitung 1: Operative Systeme in der Industrie. 14. Auflage, Gabler, Wiesbaden 2004. [24] OGC, ITIL - Service Operation, TSO, London 2007. [25] SAMES, G., BÜNDENBENDER, W., Aachener PPS-Modell, Das morphologische Merkmalsschema. 6. Auflage Sonderdruck, Forschungsinstitut für Rationalisierung, Aachen 1997. [26] SCHEER, A.W., Wirtschaftsinformatik: Referenzmodelle für industrielle Geschäftsprozesse, Springer, Berlin 1997. [27] SCHLÜCHTERMANN, J., SIBBEL, R., Produktionsplanung und -steuerung (PPS) für Dienstleistungsunternehmen, in: H. Corsten und H. Schneider (Hrsg.), Wettbewerbsfaktor Dienstleistung, Vahlen, München 1999. [28] SCHOMBURG, E., Entwicklung eines betriebstypologischen Instrumentariums zur systematischen Ermittlung der Anforderungen an EDV-gestützte Produktionsplanungs- und -steuerungssysteme im Maschinenbau, RWTH Aachen, Aachen 1980. [29] SCHULTMANN, F., FROEHLING, M., RENTZ, O., Demontageplanung und -steuerung mit EnterpriseResource–und Advanced-Planning-Systemen, in: Wirtschaftsinformatik. Bd. 5 (2002). [30] SNYDER, C.A., COX, J.F., JESSE, R.R., A Dependent Demand Approach to Service Organization Planning and Control, in: Academy Of Management Review. Bd. 3 (1982). [31] SÖBBING, T., (Hrsg.), Handbuch IT- Outsourcing. Recht, Strategie, Prozesse, IT, Steuern, samt Business Process Outsourcing. 3. Auflage, C. F. Müller, Heidelberg 2006. [32] ZÄPFEL, G., Grundzüge des Produktions- und Logistikmanagement, de Gruyter, Berlin/New York 1996. [33] ZARNEKOW, R., BRENNER, W., PILGRAM, U., Integriertes Informationsmanagement, Springer, Berlin 2005. [34] ZARNEKOW, R., Produktionsmanagement von IT-Dienstleistungen. Grundlagen, Aufgaben und Prozesse, Springer, Berlin 2007. [35] ZARNEKOW, R., SCHEEG, J., BRENNER, W., Untersuchung der Lebenszykluskosten von IT-Anwendungen, in: Wirtschaftsinformatik. Bd. 3 (2004). 514 CONTROLLING IM WISSENSMANAGEMENT – KONZEPTION EINES ALLGEMEINEN ANSATZES ZUR ERFOLGSBEWERTUNG IM WISSENSMANAGEMENT Franz Lehner, Nadine Amende, Stephan Wildner, Nicolas Haas1 Kurzfassung Es ist allgemein akzeptiert, dass Wissensversorgung und interne Wissensweitergabe unverzichtbare Erfolgsfaktoren für Unternehmen im Wettbewerb sind. Offen ist allerdings wie man den diesbezüglichen Status eines Unternehmens messen oder diagnostizieren kann, um daraus konkrete und wirksame Maßnahmen für die Verbesserung des Wissensmanagements abzuleiten. Da es bisher keine methodisch zufrieden stellende Unterstützung dafür gibt, ist das Ziel des Beitrags eine Bestandsaufnahme und kritische Reflexion der bisherigen Ansätze zur Erfolgsmessung im Wissensmanagement sowie ein Beitrag für die Entwicklung einer konzeptionellen Grundlage. 1. Einführung und Motivation Wissensmanagement wird als bewusstes und systematisches Bestreben verstanden, in Organisationen ein Umfeld zu schaffen, das die Akquise, Schaffung, Aufbereitung, Verteilung, Anwendung und Bewahrung von Wissen unterstützt. Dadurch wird zum Lernen in Organisationen beigetragen, was wiederum die bestmögliche Anpassung einer Organisation an ihre Umwelt ermöglicht. Beim Versuch, einen Erfolgsnachweis von Wissensmanagementaktivitäten zu führen, stößt man aber auf erhebliche Schwierigkeiten, denn die Wirkungen des Wissensmanagements sind meist nicht explizit und nicht direkt messbar. Bei diesem Problem setzt der vorliegende Beitrag an, denn soweit es bisher überhaupt eine methodische Unterstützung gibt entspricht diese entweder nicht dem tatsächlichen Bedarf oder sie ist mit einem unangemessen hohen Aufwand verbunden. Ziel des Beitrags ist es, zunächst einen Überblick über die bisherigen Ansätze zur Erfolgsmessung im Wissensmanagement zu geben und darauf aufbauend die existierenden Instrumente zur Erfolgsmessung einer Analyse zu unterziehen. Den Abschluss bildet ein generisches Vorgehen für die Messung des Erfolgs im Wissensmanagement, sodass eine konzeptuelle Grundlage für die Erfolgsmessung geschaffen wird. 2. Grundorientierungen bei der Erfolgsmessung im Wissensmanagement Erfolg wird im traditionellen Verständnis in der Betriebswirtschaftslehre mit Unternehmenserfolg in Verbindung gebracht und als Nettogröße zwischen Ertrag und Aufwand verstanden. Positive 1 Universität Passau, Lehrstuhl für Wirtschaftsinformatik II, Innstraße 43, 94032 Passau. 515 Größen werden als Gewinn beschrieben, negative als Verlust. Dennoch unterliegt die Messung des Erfolgs eines Unternehmens unterschiedlichen Messansätzen, die hinsichtlich ihrer Eignung kontrovers diskutiert werden. Insbesondere die Auswahl der Kriterien zur Erfolgsmessung und die Beurteilungsfähigkeit dieser durch die Unternehmen ist umstritten [18]. Diese Kontroverse beruht darauf, dass Unternehmen neben der Gewinnmaximierung weitere nicht-monetäre Ziele anstreben, beispielsweise eine hohe Qualität oder eine langfristige Sicherstellung der Wettbewerbsfähigkeit. Die betriebswirtschaftliche Forschung erweiterte daher das enge Erfolgsverständnis um Ansätze, die neben ökonomischen Erfolgsgrößen auch vor- oder nicht-ökonomische Erfolggrößen berücksichtigen [18]. In Verbindung mit der zunehmenden Institutionalisierung des Wissensmanagements stellt sich zunächst die Frage, was den Erfolg von Wissensmanagement in einer Organisation tatsächlich ausmacht und wie er gemessen werden kann. Davenport und Prusak zeigen anhand praktischer Beispiele, dass tatsächlich eine Erfolgswirksamkeit durch Projekte nachweisbar ist [6], z. B. sinkt durch verbesserte Wissensnutzung in den (operativen) Prozessen die Anzahl der gemachten Fehler bzw. werden Prozesse häufiger erfolgreich zu Ende gebracht. Ebenso ergeben sich Zeitersparnisse, die wiederum mindernd auf Kosten wirken. Die projektbezogene Erfolgsmessung ist aber wegen des temporären Charakters von Projekten nur von begrenztem Nutzen, da sie keine Aussage über das Wissensmanagement insgesamt erlaubt. Für einen ernsthaften Nachweis signifikanter Beiträge zum Erfolg einer Organisation durch das Wissensmanagement finden sich nur wenige Publikationen (Beispiele sind [33, 10]). Die Literatur beruht im Übrigen auf einem meist nicht monetären Erfolgsverständnis, wobei dieser Sachverhalt allerdings nicht immer explizit dargelegt, sondern durch die Argumentation und Grundhaltung implizit deutlich wird. Ein erfolgreiches Wissensmanagement hilft demnach Organisationen, Wettbewerbsvorteile zu realisieren, die Kundenfokussierung zu verbessern, Kosten zu senken und Innovationszyklen zu beschleunigen [17, 5, 9]. Es soll somit helfen, die organisatorische Leistungsfähigkeit zu steigern und direkt zum Erfolg des Unternehmens beitragen. Die Messung des direkten Einflusses eines effizienten Wissensmanagements auf den Unternehmenserfolg ist auf Grund der großen Anzahl an Faktoren noch immer sehr schwierig und unausgereift [2]. Daher wird in der Literatur empfohlen, vorgelagerte Erfolgsgrößen zur Messung heranzuziehen. Als mögliche Erfolgsgrößen kommen z.B. die Wissensqualität, das Niveau des Wissensaustauschs oder die Nutzerzufriedenheit mit dem Wissensmanagementsystem in Frage [12, 16]. Versucht man diese Überlegungen zu systematisieren, dann kann man zwei Perspektiven bei der Erfolgsmessung unterscheiden, welche mit einem unterschiedlichen Erfolgsverständnis aber auch mit unterschiedlichen Interpretationen der Ergebnisse verbunden sind: ● ● Zum einen wird Erfolg mit der Erreichung einer Zielvorgabe (z.B. Ziele des Wissensmanagementprojektes, Wissensziele des Unternehmens) in Verbindung gebracht. Zum anderen kann der Erfolg des Wissensmanagements als Beitrag zum Unternehmenserfolg definiert werden. Man spricht in Abgrenzung zum zielbezogenen Ansatz vom systembezogenen Erfolgsansatz, weil es bei dieser Perspektive um den Beitrag des Wissensmanagements zu einem übergeordneten Gesamtsystem geht. Der systemorientierte Erfolgsbeitrag lässt sich im Allgemeinen schwer isolieren, da das Wissensmanagement meist keinen aktiven und unmittelbaren Anteil am Unternehmenserfolg bzw. der Leistungserstellung hat. Es zielt vielmehr auf Verhaltensdispositionen und die Schaffung allgemeiner Voraussetzungen, Grundlagen u.Ä. Daher steht bei der Erfolgsmessung im Wissensmanagement der Zielansatz im Vordergrund. Dieser beschreibt den Erfolg als 516 Erreichungsgrad von selbst gesetzten Zielen (z. B. Steigerung des Wissensaustausches). Ferner ist anzumerken, dass Unternehmen oder Initiativen in diesem Fall möglicherweise an der Erreichung subjektiv gesetzter Ziele gemessen werden, ohne zu hinterfragen, ob diese Ziele auch relevant sind. Weiterhin sind mögliche Inkompatibilitäten von Zielen innerhalb eines Zielbündels sowie die Möglichkeit der Zieländerung im Zeitablauf nicht unwesentlich [18]. Neben der Wahl zwischen dem zielbezogenen und dem systembezogenen Ansatz sind weitere Aspekte zu berücksichtigen, da eine allgemein gültige Vorgehensweise bei der Erfolgsmessung, losgelöst vom jeweiligen Kontext, nicht sinnvoll ist. Von besonderer Bedeutung sind die drei folgenden Aspekte: ● ● ● Dies betrifft zunächst die Ausrichtung an der Interessensgruppe, d. h. für wen bzw. für welche Anspruchsgruppe erfolgt die Bewertung (z. B. Management, Wissenschaft, Markt). Eine zentrale Rolle für die Bewertung spielt die Größe und Organisationsform der bewerteten Einheit (z. B. Abteilung, Unternehmensstandort, internationaler Konzern). Schließlich ist auch das zugrunde gelegte Bewertungsobjekt von zentraler Bedeutung, weil die Erfolgsmessung darauf abzustimmen ist und sich darin auch das spezifische Verständnis von Wissensmanagement ausdrückt. Wegen seiner grundlegenden Bedeutung soll der letzte Punkt noch weiter differenziert werden. Im Wissensmanagement können fünf Bewertungsobjekte unterschieden werden [23]: ● ● ● ● ● das Wissen (die Wissensbasis) selbst, der Mensch als Wissensarbeiter, die Aktivitäten des Wissensmanagements, Wissensmanagementprojekte und Wissensmanagementsysteme. Bei den Messungs- und Bewertungsansätzen kann dabei zwischen verschiedenen Grundhaltungen differenziert werden, die einen Einfluss auf die Vorgehensweise bei der Messung haben. Dies sind: ● ● ● ● objektive vs. subjektive Ansätze, interne oder geschlossene vs. externe oder offene Ansätze, inside vs. outside betrachtungsorientierte Ansätze und integrative bzw. umfassende Bewertungsansätze vs. Partialansätze. Bei objektiven Messungen wird davon ausgegangen, dass es normative und extern vorgegebene Werte gibt, deren Erreichung mit Erfolg gleichgesetzt werden kann. Eine Unterscheidung zwischen richtig und falsch bzw. von einer Norm abweichend ist unter diesen Voraussetzungen möglich. Bei subjektiven Bewertungen wird unterstellt, dass die Situation in jedem Unternehmen anders ist (und damit auch die Rolle des Wissensmanagements) und ein Vergleich oder eine Bewertung des Wissensmanagements auf Basis objektiver Größen wenig sinnvoll ist. Die Orientierung erfolgt daher an internen Vorgaben. Beide Ausprägungen beschreiben die Gültigkeit – das „Wofür“ – der Messung. Da bei den objektiven Ansätzen bisher keine allgemein akzeptierten Ergebnisse vorliegen, finden in der Praxis primär Methoden Anwendung, die eine subjektive Bewertung erlauben. Dazu zählen u.a. Benchmarks, Wissensbilanzen, Zeit- und Kostenanalysen, Nutzenanalyse auf Basis der Balanced Scorecard, das Knowledge Management Maturity Model u.ä. Ansätze [27]. 517 Bei der internen Bewertung wird das Wissensmanagement als geschlossenes System betrachtet. Die Erfolgsbeurteilung erfolgt unter Beschränkung auf dieses System (z.B. Einhaltung des verfügbaren Budgetrahmens, Erreichung der vorgegebenen Ziele). Bei der externen Bewertung wird das Wissensmanagement als Black-Box betrachtet, das eine Leistung nach außen bzw. für andere Unternehmensteile erbringt. Hier geht es um die Bewertung dieser Leistung, d.h. um einen nachweisbaren Beitrag zum Unternehmenserfolg, zur Kostenreduktion oder anderen Bezugsgrößen. „Was“ unter einem Erfolgsbegriff verstanden wird, definieren beide Ausprägungen unterschiedlich. Wieder anders ist die Situation bei der Inside- respektive Outside-Betrachtung. Normalerweise erfolgt die Bewertung des Wissensmanagements inside in dem Sinne, dass die Situation aus dem Unternehmen heraus beurteilt wird (entweder eingeschränkt auf das Wissensmanagement selbst oder die gesamte Organisation umfassend). Dieser Blickwinkel wird selbst dann eingenommen, wenn die Bewertung durch eine externe Organisation (z.B. ein Beratungsunternehmen) durchgeführt wird. Allerdings kommt beim Einsatz eines Beratungsunternehmens erstmals auch ein Blick von außen dazu. Das lässt sich konsequent weiter denken, indem die Bewertung generell von außen, also z.B. von den Kunden vorgenommen wird. Auf diese Weise beurteilt sich das System nicht selbst, sondern man erhält Informationen darüber, ob auch der Markt das Unternehmen für hinreichend vernetzt und informiert hält. Durch die Angabe von Adressaten beschreiben die beiden Ausprägungen das „Wer“ der Betrachtung. Bei integrativen oder umfassenden Bewertungsansätzen wird das Wissensmanagement als Ganzes mit all seinen Teilbereichen und Funktionen erfasst und einer Bewertung unterzogen. Bei Partialansätzen erfolgt die Konzentration auf Teilbereiche (z.B. Wissen bei der Bewertung des Intellectual Capitals, Wissensmanagementsysteme beim Ansatz von Maier und Hädrich [25]). Diese Grundhaltung macht erneut Aussagen zum „Was“ der Bewertung. Im Rahmen des vorliegenden Beitrags erscheint es zweckmäßig, einen interessenpluralistischen Ansatz zu verwenden, um der Sichtweise gerecht zu werden, dass das Erfolgsverständnis an den Interessen der beteiligten Interessenvertreter festzumachen ist. Dieser Ansatz berücksichtigt demnach die Interessen aller internen und externen Koalitionen. In diesem Verständnis ist ein Unternehmen umso erfolgreicher, je eher es die Ansprüche der Interessenvertreter erfüllt, von denen es Ressourcen benötigt oder erhält und daher in einer Austauschbeziehung steht [29]. Zusammenfassend wird erfolgreiches Wissensmanagement auf der Grundlage der vorausgehenden Überlegungen wie folgt definiert: Erfolg im Wissensmanagement bemisst sich über die akkumulierte persönliche und subjektiv wahrgenommene Zufriedenheit eines Organisationsmitgliedes mit der Qualität der Wissensversorgung und Wissensweitergabe im Rahmen des individuellen Aufgabenumfeldes. Dies bedeutet, dass sich der Zielerreichungsgrad für ein erfolgreiches Wissensmanagement darüber definiert, ob ein Organisationsmitglied entweder zufrieden oder unzufrieden mit der Qualität der Wissensversorgung ist und ob jedes einzelne Organisationsmitglied Möglichkeiten hat, schnell und unkompliziert auf relevantes und qualitativ hochwertiges Wissen zugreifen zu können, das in der aktuellen Arbeitssituation benötigt wird. Natürlich muss ein erfolgreiches Wissensmanagement den Organisationsmitgliedern auch Möglichkeiten, Wege und Anreize bieten, ihr individuelles Wissen einzubringen. Zusammengefasst bedeutet das, dass das Wissensmanagement dann erfolgreich ist, wenn die Gesamtheit aller Aktivitäten dazu beiträgt, das Aufffinden, Vermehren und die Nutzung des für eine Organisation relevanten Wissens für die Organisationsmitglieder wahrnehmbar zu unterstützen und zu verbessern. 518 3. Instrumente zur Erfolgsmessung im Wissensmanagement Für die Erfolgsmessung im Wissensmanagement existiert mittlerweile eine Vielzahl an Instrumenten. In diesem Zusammenhang wird auch auf weitere Literatur (insbesondere [23]) verwiesen. Wolf unterscheidet zwischen Bilanzierungsansätzen zur Ermittlung des Wertzuwachses durch Wissensmanagement über den Bilanzwert hinaus, Strategieansätzen zur Analyse der Wirkungsweise von Wissensmanagement als Mechanismus der strategischen Unternehmensausrichtung und Prozessansätzen zur Bewertung als sozialen Prozess, der die organisatorische Kompetenz verändert [36]. Auch Kasperzak et al. differenzieren verschiedene Kategorien hinsichtlich der verwendeten Verfahren u.a. Marktwert-, Investitions- oder Wiederbeschaffungswertverfahren [22]. Bei beiden Klassifizierungen wird versucht eine disjunkte Zuteilung der Ansätze zu einzelnen Kategorien vorzunehmen, was jedoch meist nicht eindeutig möglich ist. Vor dem Hintergrund der dargestellten multiperspektivischen Bewertungssituation wird eine Einteilung nach mehreren Kategorien gemäß den oben beschriebenen Grundhaltungen vorgeschlagen. Abbildung 1 listet die wichtigsten Instrumente zur Bewertung des Wissensmanagements geordnet nach diesen Grundhaltungen auf. Abbildung 1: Instrumente zur Bewertung des Wissensmanagement [24] Im Folgenden werden nun diejenigen Instrumente vorgestellt, die die Erfolgsmessung im Wissensmanagement in Bezug auf das Wissensmanagement selbst, also eine interne Bewertung, vornehmen. Die Instrumente, die das Wissensmanagement nur indirekt über die Wissensbasis bzw. das Intellectual Capital bewerten, werden hier nicht näher betrachtet, da eine Aussage über die Güte des Wissensmanagements damit nicht möglich ist. Jene Instrumente, die eine partielle Bewertung vornehmen, sind häufig an Bewertungsmethoden aus der IT angelehnt. Maier und Hädrich entwickelten, basierend auf dem Modell zur Erfolgsmessung von Informationssystemen von DeLone und McLean [8], ein Modell zur Erfolgsmessung von Wissensmanagementsystemen. Dabei erweiterten sie das ursprüngliche Modell um die Perspektiven: „Informations-, Kommunikations- und Wissensqualität“, „wissensspezifischer Service“ und „Auswirkung auf Communities“. Um die Qualität des eingesetzten 519 Systems zu messen, wurden anhand einer Literaturanalyse und einer empirischen Untersuchung insgesamt 238 Faktoren für die verschiedenen Perspektiven und Wissensmanagementsystemtypen ermittelt [25]. In ähnlicher Weise dient auch das Modell von Folkens und Spiliopoulou zur Bewertung von Wissensmanagementsystemen [13]. Eine andere Zielrichtung verfolgt das Knowledge Process Quality Model (KPQM) von Paulzen und Perc, das an SPICE angelehnt wurde. Es soll auf der Prozessebene das Wissensmanagement evaluieren [31]. Das KPQM untersucht folgende Dimensionen: Reifegrad des Wissensmanagements, Wissensaktivitäten/-prozesse, Bereiche des Wissensmanagements und die Bewertungsart. Das KPQM dient Unternehmen dazu, ihre vorhandenen Wissensmanagementprozesse zu evaluieren, um Verbesserungspotentiale zu erkennen. Das Modell untersucht jedoch lediglich die Prozesse und nicht die Wissensbasis, ebenso schlägt das Modell keine passenden Strategien für bestimmte Ergebnisse vor [30]. Das Knowledge Management Maturity Model (KMMM) von Ehms und Lang will ebenfalls den Reifegrad der Wissensmanagementprozesse in einer Organisation oder in einem Teilbereich davon messen. Der Aufbau und die Vorgehensweise sind dabei analog zum KPQM von Paulzen und Perc [11]. Weitere Bewertungsinstrumente basieren auf der Balanced Scorecard (BSC). In der Grundkonzeption der BSC werden ausgewählte Perspektiven durch strategische Zielsetzungen, konkrete Kennzahlen, vorgesehene operative Maßnahmen und einen Zeithorizont beschrieben [20]. Die ursprünglich vorgeschlagenen Perspektiven können im Bedarfsfall abgewandelt oder ergänzt werden [21]. Obwohl die BSC in ihrer Grundannahme nicht in einem der Wissensgesellschaft entsprechenden Denken verwurzelt ist, ist sie doch eine etablierte Größe [37, 3]. Das Knowledge Management Performance Framework (KMPF) von de Gooijer ist ein Ansatz, der auf der BSC und einem verhaltenswissenschaftlichen Ansatz basiert. Der erste, auf der BSC basierende Teil, soll bereichsübergreifend die Effektivität des Wissensmanagements messen. Dazu wurden die ursprünglichen Perspektiven der BSC an das Wissensmanagement angepasst. Die so genannte Knowledge Management Performance Scorecard umfasst die Perspektiven Finanzen, Geschäftsprozesse, Stakeholders und Menschen. Für jede Perspektive werden die Schlüsselfunktionen bestimmt, die das Wissensmanagement erfüllen soll. Der zweite Teil des KMPF stützt sich auf den „concerns-based-adoption-model“ (CBAM) basierten Ansatz und zeigt, wie Individuen auf Veränderungen und Innovationen reagieren. Es wird davon ausgegangen, dass Individuen in Abhängigkeit ihres Wissens, das sie bzgl. einer Innovation haben, bestimmte Verhaltensweisen zeigen. Durch diese Zweiteilung des KMPF soll es gelingen, die „harten“ Zahlen aus der BSC mit den „verschwommenen“ der Verhaltensforschung zu verbinden, um die Effektivität von Wissensmanagement zu messen [7]. Ein weiteres Instrument, welches sich der BSC bedient, ist das Modell von del-Rey-Chamorro et al. [32]. Dieses dient dazu, Indikatoren zu bestimmen, die die Leistung des Wissensmanagements in Abhängigkeit von den Geschäftsprozessen messen. Das Modell gliedert sich in drei Ebenen: Die strategische Ebene, die operative Ebene und eine Verbindungsebene, die die ersten Ebenen verbindet. Das Modell dient nicht nur dazu, den Beitrag des Wissensmanagements zu den Geschäftsprozessen zu messen, sondern auch die Effektivität des implementierten Wissensmanagementsystems. Das Process-oriented Performance Measurement (PPM) von Schauer und Pfeiffer [34] wurde entwickelt, um den ökonomischen Beitrag von Wissensmanagement zu messen, da die gängigen Instrumente des Rechnungswesens und des Performance Measurement (PM) dazu nur teilweise geeignet sind. PPM kombiniert einen spezifischen Ansatz des PM mit einer prozessorientierten 520 Systemanalyse des Wissensmanagements. Das PPM möchte den Nutzen wissensintensiver Arbeit und die Maßnahmen des Wissensmanagements modellieren. Basierend auf einer Systemanalyse werden Kennzahlen für das Wissensmanagement abgeleitet und systematisch in ein Kennzahlensystem integriert. Die Wissensbilanz A2006 möchte das im Unternehmen vorhandene Wissen systematisch aufbereiten, um die strategische Unternehmensführung zu unterstützen. Die Erstellung der Bilanz gliedert sich in sechs Schritte: (1) Aufsetzen des Projektmanagements, um die Unterstützung der Top-Managements zu sichern, einen klaren Projektplan zu erhalten und ein kompetentes Team zusammenzustellen, (2) Festlegen der Kernkompetenzen, um die strategischen Erfolgsfaktoren und die Unternehmenssituation darzustellen, (3) Assessment des Wissensmanagements, um eine differenzierte Bewertung der Erfolgsfaktoren zu erhalten und Kenntnisse über die Wechselwirkungen des Wissensmanagements zu bestimmen, (4) Erhebung und Interpretation der Indikatoren, um ein Indikatorenset zu erhalten und geeignete Maßnahmen zu treffen, (5) Festlegung der Planungs- und Steuerungsprozesses, um einen kontinuierlichen Prozess der Wissensbilanzierung zu erhalten und (6) eine interne und externe Kommunikation, um alle Interessgruppen bzw. Stakeholder umfassend zu informieren und zu motivieren [4]. Das CSF-MCA-Modell von Tambyrajah und Al-Shawabkeh basiert auf einem Ansatz, welcher das Wissensmanagement über kritische Erfolgsfaktoren (Critical Success Factors, CSF) bewertet. Auf der Grundlage einer umfangreichen Literaturanalyse wurden drei Gruppen von CSFs bestimmt: „Menschen und Kultur“, „Prozesse“ und „IT-Infrastruktur“. Das Bewertungsmodell basiert auf dem SECI-Modell von Nonaka und Takeuchi [28]. Die CSFs werden in das SECI-Modell eingefügt und hinterlegen das Modell mit Indikatoren. Dabei kann das anfänglich verwendete Set der Indikatoren aus einer Literaturanalyse gewonnen werden und anschließend mit Hilfe einer multikriteriellen Analyse diskutiert werden. Letztere bezieht sowohl Top-down- als auch Bottom-upEntscheidungen mit ein. Das Ergebnis des Modells spiegelt aber nur eine Momentaufnahme des Wissensmanagements zu einem bestimmten Zeitpunkt wider [35]. Ein weiterer Ansatz, der sich am SECI-Modell orientiert, ist die Methode von Afrazeh und Nezafati. Hierbei wird der Wissensstatus einer Organisation in Bezug auf die von Nonaka und Takeuchi definierten Wissenstypen (explizites, implizites, individuelles und kollektives Wissen) und den dazwischen ablaufenden Transformationsprozessen erhoben. Für die jeweils vier Wissenstypen und Transformationsmodi werden mehrere Indikatoren bestimmt. Die Autoren treffen jedoch keine Aussagen über die Herkunft und Validität der Indikatoren. Der Bezug zu den einzelnen Wissenstypen und Transformationen bleibt zudem unklar. Die Bewertungsergebnisse der einzelnen Indikatoren werden schließlich genutzt, um einen Leistungs- und einen Prioritätswert für jeden Indikator zu bestimmen. Diese dienen zur Berechnung jedes einzelnen Wissenstypus und Transformationsmodus sowie zur Bestimmung eines generellen Wissensstatus der Organisation. Je nach Ausprägung von Leistung und Priorität des Wissensstatus sind verschiedene Maßnahmen durchzuführen. Die Methode wurde bisher von den Autoren selbst durchgeführt. Ihre Anwendung durch die Organisation selbst wäre durchaus denkbar [1]. Abschließend ist anzumerken, dass sich einige in der Literatur angeführten Instrumente ausschließlich auf die Visualisierung des im Unternehmen vorhandenen Wissenstypus beschränken und daher keine unmittelbare Erfolgsbewertung erlauben. Anstatt einer Bewertung besteht das Ziel darin, Transparenz zu schaffen. Hierzu gehört z. B. das Knowledge-Management-Assessment-Tool (KMAT) der APQC, bei dem über einen standardisierten Fragebogen der Status von kritischen Rahmenbedingungen (z.B. Kultur, Führung, Technologie) erfasst wird [26]. Ein weiteres Instrument dieser Gruppe ist das Knowledge Framework von Jordan und Jones [19], das mittels 521 Interviews unternehmensspezifische Wissensprofile erhebt. Die Messung erstreckt sich über die Dimensionen: Wissensbeschaffung, Problemlösungsmethode, Verteilung, Besitz und Gedächtnis. Jede Dimension wird dabei durch mehrere Indikatoren charakterisiert. 4. Allgemeines Vorgehen bei der Erfolgsmessung und Zusammenfassung Obwohl die Forschung in Bezug auf die Entwicklung geeigneter Bewertungssysteme im Wissensmanagement noch am Anfang steht, lassen sich gewisse Grundtendenzen erkennen. Ein allgemein gängiger Bewertungsprozess kann in folgende Schritte gegliedert werden [15, 14]: 1. Identifizierung der Ziele: Die Ziele der Bewertung des Wissensmanagements werden in Abhängigkeit der Zielgruppe bestimmt (z. B. Wissensmanager, Manager, Kunden, etc.). 2. Auswahl des Messsystems: Das Messsystem wird in Abhängigkeit von den untersuchten Wissensmanagementinitiativen ausgewählt, damit es einfach zu handhaben und aussagekräftig ist. BSC-basierte Systeme eignen sich für eine umfassende Bewertung des Wissensmanagements, wogegen ein Matrix-System eine Übersicht über ein Portfolio von Wissensmanagementaktivitäten darstellt und zeigt, wie diese in Zusammenhang stehen. Diese Darstellung ist sinnvoll, um Prioritäten bei den Wissensmanagementaktivitäten festzulegen. 3. Festlegung der Indikatoren: Die Indikatoren werden in Abhängigkeit von Messsystem und Zielsetzung bestimmt. 4. Bestimmung der Erhebungsart: Aus den verschiedenen Erhebungsarten, wie Fragebögen, Interviews, Workshops, Untersuchung von Programmverläufen/-statistiken und Dokumenten, wird eine geeignete ausgewählt. 5. Untersuchung der Ergebnisse: Die gewonnenen Daten werden interpretiert, um Gründe für eine effektive bzw. ineffektive Nutzung des Wissensmanagements zu erhalten. Natürlich ist es möglich, die dargestellten Grundorientierungen zur Bewertung von Wissensmanagement zu kombinieren und weiter zu variieren. Unabhängig davon fehlen aber noch geeignete Indikatoren. Mögliche Indikatoren sind empirisch nicht validiert und der UrsacheWirkungs-Zusammenhang zwischen Indikatoren und Erfolg ist bisher nur exemplarisch aufgezeigt worden, denn Erfolg ist immer auch an ein Erfolgskonstrukt gebunden. Ein Defizit besteht nicht zuletzt darin, dass selbst über die Begrifflichkeiten noch Uneinigkeit herrscht. Ein noch größeres Defizit herrscht bei der Bestimmung der Faktoren. Es gibt bereits einige Studien, die sich mit Barriere- und Erfolgsfaktoren des Wissensmanagements beschäftigten, jedoch gibt es kein valides Set solcher Faktoren, welches zur Bewertung herangezogen werden kann. Der generelle Nutzen der beschriebenen Bewertungsinstrumente wird somit stark reduziert. Für eine valide Bewertung des Wissensmanagements ist es daher notwendig, allgemein gültige Barrierebzw. Erfolgsfaktoren zu bestimmen. In diesem Zusammenhang ist auch zu erwähnen, dass zwischen der wissenschaftlichen Forschung zur Erklärung des Erfolgs durch das Wissensmanagement und der Entwicklung von Messmethoden bzw. -instrumenten bisher keine hinreichende Verbindung besteht. Ein Anliegen der Autoren besteht daher darin, in weiterer Forschungsarbeit diese Lücke zu schließen [24]. Mit der vorliegenden Arbeit wurde ein Versuch unternommen, einen Beitrag auf diesem Weg zu leisten. 5. Literaturhinweise [1] AFRAZEH, A. und NEZFATI, N., A Method for Measurement of Knowledge in Organization Based on the SECI Model, in: C. Stary, F. Barachini und S. Hawamdeh (Hrsg.), Knowledge Management: Innovation, Technology and Cultures, Proceedings of the 2007 International Conference on Knowledge Management, Wien, Österreich, 27-28. August, 2007, 141-151. 522 [2] BHARADWAJ, A.S., A resource-based perspective on information technology capability and firm performance: an empirical investigation, in: MIS Quarterly, Bd. 24, Nr. 1 (2000), 169-96. [3] BODROW, W. und BERGMANN, P., Wissensbewertung in Unternehmen, Berlin 2003. [4] BRANDNER, A. (Hrsg.), Assess – Wissensbilanz A2006© – Leitfaden für Klein- und Mittelbetriebe, Wien 2006, http://assess.daa.at/download.asp?id=156, Abrufdatum: 16.11.2008. [5] CHOURIDES, P., LONGBOTTOM, D. und MURPHY, W., Excellence in knowledge management: an empirical study to identify critical factors and performance measures, in: Measuring Business Excellence, Bd. 7, Nr. 2 (2003), 29-45. [6] DAVENPORT, T.H. und PRUSAK, L., Working Knowledge, Boston 1998. [7] DE GOOIJER, J., Designing a knowledge management performance framework, in: Journal of Knowledge Management, Bd. 4, Nr. 4 (2000), 303-310. [8] DE LONE, W.H. und McLEAN, E.R., Information Systems Success: The Quest for the Depend Variable, in: Information Research, Bd. 3, Nr. 1 (1992), 259-274. [9] DETERT, J.R. und SCHROEDER, R.G., A framework for linking culture and improvement initiatives in organizations, in: Academy of Management Review, Bd. 25, Nr. 4 (2000), 850-63. [10] DOVEY, K. und WHITE, R., Learning about learning in knowledge-intense organizations, in: The Learning Organization, Bd. 12, Nr. 3 (2005), 246-260. [11] EHMS, K. und LANGEN, M., Ganzheitliche Entwicklung von Wissensmanagement mit KMMM®, in: Wissensmanagement online (2000), www.wissensmanagement.net/online/archiv/2000/08_0900/Wissensmanagement.shtml, Abrufdatum: 13.08.2007. [12] FERNANDEZ, I.B. und SABHERWAL, R., Organizational knowledge management: a contingency Perspective, in: Journal of Management Information Systems, Bd. 18, Nr. 1 (2001), 23-55. [13] FOLKENS, F. und SPILIOPOULOU, Towards an Evaluation Framework for Knowledge Management Systems, in: D. Karagiannis D. und U. Reimer (Hrsg.), Practical Aspects of Knowledge Management, Berlin 2004, 23-34. [14] HANLEY, S. und MALAFSKY, G., A Guide for Measuring the Value of KM Investments, in: C.W. Holsapple (Hrsg.), Handbook of Knowledge Management, Bd. 2 Knowledge Directions, Berlin 2003, 369-390. [15] JUNGINGER, M., HERTWECK, D., MATSCHI, M., SCHUMACHER, J., WEISS, B. und WOLTER, T., Erfolgsmessung und Gestaltung von Wissensmanagement-Projekten – Entwicklung einer Methode zur Ergebnisbestimmung und -steuerung, in: N. Gronau (Hrsg.): 4. Konferenz Professionelles Wissensmanagement – Erfahrungen und Visionen, Bd. 1, Berlin 2007, 137-144. [16] HUANG, K.T., LEE, Y.W., WANG, R.Y., Quality Information and Knowledge, Englewood Cliffs 1999. [17] JENNEX, M.E., SMOLNIK, S., CROASDELL, D., Towards defining knowledge management success, in: Proceedings of the 40th Annual Hawaii International Conference on System Sciences (HICSS'07), 2007. [18] JENNER, T., Determinanten des Unternehmenserfolges, Stuttgart 1999. [19] JORDAN, J. und JONES, P., Assessing your Company’s Knowledge Management Style, in: Long range planning, Bd. 30, Nr. 3 (1997), 392-398. [20] KAPLAN, R. und NORTON, D., The Balanced Scorecard – Measure that drive Performance, in: Harvard Business Review, Bd. 70, Nr. 1 (1992), 71-79. [21] KAPS, G., Erfolgsmessung im Wissensmanagement unter Anwendung von Balanced Scorecards, in: H. Nohr (Hrsg.), Arbeitspapiere Wissensmanagement, Nr. 2, Stuttgart 2001. 523 [22] KASPERZAK, R., KRAG, J. und WIEDENHOFER, M., Konzepte zur Erfassung und Abbildung des Intellectual Capital, in: Deutsches Steuerrecht, Bd. 39, Nr. 35, 2001, 1494-1500. [23] LEHNER, F., Wissensmanagement. Grundlagen, Methoden und technische Unterstützung. 2. Auflage, München 2008. [24] LEHNER, F., AMENDE, N., HAAS, N., WILDNER, S., Erfolgsbeurteilung des Wissensmanagements: Diagnose und Bewertung der Wissensmanagementaktivitäten auf der Grundlage der Erfolgsfaktorenanalyse, Forschungsbericht W-24-07, Lehrstuhl für Wirtschaftsinformatik II, Universität Passau 2007. [25] MAIER, R. und HÄDRICH, T., Modell für die Erfolgsmessung von Wissensmanagementsystemen, in: Wirtschaftsinformatik, Bd. 43, Nr. 5 (2001), 497-509. [26] NORTH, K., Wissensorientierte Unternehmensführung, Wiesbaden 2002. [27] NORTH, K., PROBST, G. und ROMHARDT, K., Wissen messen – Ansätze, Erfahrungen und kritische Fragen, in: Zeitschrift für Führung und Organisation, Bd. 63, Nr. 3 (1998), 158-166. [28] NONAKA I. und TAKEUCHI, H., The Knowledge Creating Company: How Japanese Companies Create the Dynamics of Innovation, New York 1995. [29] OESTERLE, M.-J., Probleme und Methoden der Joint Venture-Erfolgsbewertung, in: Zeitschrift für Betriebswirtschaft, Bd. 65, Nr. 9 (1995), 987-1004. [30] PAULZEN, O. und PERC, P., A Maturity Model for Quality Improvement in Knowledge Management, in: A. Wenn, M. McGrath und F. Burstein (Hrsg.), Enabling Organisations and Society through Information Systems, Proceedings of the 13th Australasian Conference on Informations Systemes (ACIS 2002), Melbourne 2002, 243-253. [31] PAULZEN, O., Qualität im Wissensmanagement – Modellierung und Bewertung von Wissensprozessen, Wiesbaden 2006. [32] DEL-REY-CHAMORRO, F.M., ROY, R., VAN WEGEN, B. and STEELE, S., A framework to create key performance indicators for knowledge management solutions, in: Journal of Knowledge Management, Bd. 7, Nr. 2 (2003), 46-62. [33] SALOJÄRVI, S., FURU, P. und SVEIBY, K., Knowledge management and growth in Finnish SMEs, in: Journal of Knowledge Management, Bd. 9, Nr. 2 (2005), 103-122. [34] SCHAUER, H. und PFEIFER, M., Process-oriented Performance Measurement (PPM) – Eine Modellierungsmethode für das Wissenscontrolling, in: N. Gronau (Hrsg.): 4. Konferenz Professionelles Wissensmanagement – Erfahrungen und Visionen, Bd. 1, Berlin 2007, 127-135. [35] TAMBYRAJAH, A. und AL-SHAWABKEH, A., Developing Performance Indicators for Knowledge Management, in: B. Martins, D. Remenyi (Hrsg.): Proceedings of the 8th European Conference on Knowledge Management, Consorci Escola Industrial de Barcelona, Spanien, 6-7. September, 2007, Bd. 2, 972-981. [36] WOLF, P., Erfolgsmessung der Einführung von Wissensmanagement. Eine Evaluationsstudie im Projekt „Knowledge Management“ der Mercedes-Benz PKW-Entwicklung der DaimlerChrysler AG, Münster, 2003. [37] WU, A., The integration between Balanced Scorecard and intellectual capital, in: Journal of Intellectual Capital, Bd. 6, Nr. 2 (2005), 267-284. 524 LEISTUNGSORIENTIERTE STEUERUNG DER INFORMATIONSVERSORGUNG IM RAHMEN DER QUALITÄTSSICHERUNG IN DIENSTLEISTUNGSNETZWERKEN Reinhard Jung1, Martina Meschke2 Kurzfassung Die Qualitätssicherung der Leistungserstellung in Dienstleistungsnetzwerken ist ein wichtiger Erfolgsfaktor. Die Netzwerkunternehmen müssen durch eine effektive und effiziente Informationsversorgung unterstützt werden. Eine leistungsorientierte Steuerung der integrierten Informationsversorgung sowohl auf organisatorischer als auch auf technologischer Ebene trägt den Herausforderungen Rechnung. Drei Szenarien bilden die unterschiedlichen Anforderungen in Bezug auf Flexibilität und Unabhängigkeit der Netzwerkunternehmen ab. Sie werden durch Kriterien definiert, die auf die leistungsorientierte Gestaltung der Informationsversorgung ausgerichtet sind: Ziele der Informationsversorgung, Ausgangs- und Eingangsdaten sowie Prozesse. Daraus leiten sich Architekturen sowie Rollen und Verantwortlichkeiten ab. Zur Steuerung werden drei korrespondierende Controllingansätze entwickelt, die für jede Architektur spezifische Controllingobjekte, Controllinginstrumente sowie quantitative und qualitative Kennzahlen zur Verfügung stellen. 1. Einleitung Der Dienstleistungssektor hat in den letzten Jahren immer mehr an Bedeutung gewonnen. Deutschland ist der dritt größte Dienstleistungsanbieter weltweit, und in diesem Sektor arbeiten mittlerweile dreiviertel aller in Deutschland Beschäftigten [5]. Die Leistungserbringung des Dienstleistungssektors findet zunehmend in Netzwerken statt [12, 20, 24]. Hierbei nimmt der Kunde allerdings in der Regel nur die Gesamtleistung wahr, die in entsprechender Güte integriert sein muss. Die Schnittstelle zum Kunden wird oftmals durch einen sogenannten „Service Integrator“ gebildet, der die Verantwortung für die Zusammenstellung der Endleistung hat [3, 13, 25]. Nicht nur der Service Integrator, sondern auch die übrigen Partner („Service Provider“) sind abhängig von der Leistungsqualität im gesamten Dienstleistungsnetzwerk, damit effiziente Wertschöpfung und in der Folge Gewinn erzielt werden kann. Die Sicherung der Qualität einer verteilten Leistungserstellung ist deshalb ein wichtiger Faktor für die Effektivität und Effizienz eines Dienst1 2 Universität Duisburg-Essen, Germany FernUniversität in Hagen, Germany 525 leistungsnetzwerks [1, 31]. Im Rahmen der Qualitätssicherung ergibt sich eine besondere Herausforderung an die Informationsversorgung (IV) in Dienstleistungsnetzwerken [15]. Oftmals fehlt eine angemessene IV, die im Netzwerk die qualitätsrelevanten Informationen zeitnah und adressatenorientiert am richtigen Ort zur Verfügung stellt. Daraus abgeleitet und aus den Gestaltungselementen der Phasen einer IV [11] ergeben sich die Erfolgsfaktoren Zeit (zeitnah), Kommunikationsmedium (adressatenorientiert am richtigen Ort) und Kosten (effizienzorientiert), ohne die eine schnelle, flexible und effiziente Qualitätssicherung nicht garantiert werden kann [7, 33]. Die IV in Dienstleistungsnetzwerken kann unterschiedlich gestaltet sein. Je nach Grad der Kooperationsintensität werden die Netzwerkpartner (im Folgenden kurz: Unternehmen) unterschiedliche Architekturen für die IV wählen: „Separate IV“, „Kooperative IV“ und „Integrierte IV“. Unternehmen, die eine eher kurzfristige und wirtschaftlich unabhängigere Kooperation anstreben, werden in der Regel eine „Separate IV“ wählen. Je langfristiger die Kooperation ausgelegt ist, desto eher werden die Unternehmen aus Effizienzgründen die „Kooperative IV“ oder sogar die „Integrierte IV“ anstreben. Damit ist gleichzeitig eine erhöhte Abhängigkeit zwischen den Unternehmen verbunden (vgl. Kapitel 3). Im Anschluss an die Auswahl der Architektur, die für die spezifische Situation und Zielsetzung der Unternehmen am besten geeignet zu sein scheint (Erfolgsfaktor „Zeit“ und „Kommunikationsmedium“), muss ein Mechanismus etabliert werden, um die Wirtschaftlichkeit der IV zu gewährleisten (Erfolgsfaktor „Kosten“). Die Zielsetzung dieses Beitrags ist zum Einen die Definition von drei verschiedenen IV-Architekturen, die der jeweils angestrebten Kooperationsintensität Rechnung tragen, und zum Anderen die Entwicklung eines Controllingansatzes für jede Architektur. Daraus ergeben sich zwei zentrale Forschungsfragen: Welche Kriterien sind bei der Auswahl einer IVArchitektur in Bezug auf die fachlichen und technologischen Komponenten zu beachten? Wie kann eine leistungsorientierte Steuerung der jeweiligen IV, d.h. die Entwicklung eines effektiven und effizienten Controllingansatzes pro Architektur, stattfinden? Die Entwicklung des Controllingansatzes erfolgt argumentativ-deduktiv [34], abgeleitet aus der Literatur und verfügbaren empirischen Befunden. In einem späteren Schritt, für den dieser Beitrag als Basis dient, ist dieses Modell im Rahmen einer Studie empirisch zu untersuchen. Der vorliegende Beitrag definiert in Abschnitt 2 zunächst die Grundlagen zu Dienstleistungsnetzwerken und zeigt daran die erforderliche IV auf. In Abschnitt 3 folgt dann zur Systematisierung der IV die Definition von drei Architekturen, die den unterschiedlichen Beziehungsausprägungen (Kooperationsintensität) in einem Dienstleistungsnetzwerk Rechnung tragen. Je nach Szenario muss eine spezifische Applikationsarchitektur für die IV zum Einsatz kommen. Die Entwicklung des Controllingansatzes zur Steuerung der IV pro Architektur, ist gemäß der zuvor genannten Forschungsfragen Ziel dieses Beitrags und wird in Abschnitt 4 präsentiert. 2. Informationsversorgung in Dienstleistungsnetzwerken Die Unternehmen in einem Dienstleistungsnetzwerk sind in der Regel rechtlich selbstständig und nur hinsichtlich ihres Ressourcenaustausches (z. B. Know How) wirtschaftlich voneinander abhängig [1]. Ein Dienstleistungsnetzwerk wird im vorliegenden Beitrag definiert als Kooperation zwischen einem Service Integrator, der die Schnittstelle zum Kunden „besetzt“, und mindestens zwei Service Providern. Der Service Integrator bündelt alle Leistungen zu einem Dienstleistungspaket und sollte demnach zentral für die Qualitätssicherung verantwortlich sein. 526 Die Qualität von Dienstleistungen ist schwieriger messbar als die Qualität materieller Produkte; dies ist schon allein dadurch begründet, dass materielle Produkte zu einem Zeitpunkt vor der Auslieferung vollständig vorliegen und gegen eine Spezifikation getestet werden können (z.B. Vermessung von Maschinenbauteilen), während sich Dienstleistungen erst während der Leistungserbringung beim Kunden und zudem über einen bestimmten Zeitraum manifestieren [6, 23]. Zusätzlich sind die Erwartungen und Wahrnehmungen des Dienstleistungsempfängers (Konsument) ausschlaggebend bei der Bewertung der Qualität [27]. Die Qualität im Dienstleistungsnetzwerk wird deshalb durch zwei Perspektiven definiert: die Perspektive der Konsumenten und die Perspektive der Leistungserbringer (Service Integrator und Service Provider) [1]. Die Konsumenten fordern und erwarten eine hohe Dienstleistungsqualität in Bezug auf das angebotene Leistungsbündel (z. B. Zuverlässigkeit, Freundlichkeit, Engagement und Kompetenz der Mitarbeiter, materielle Produktbeschaffenheit, seriöses und klares Auftreten (Image) des Unternehmens). Das Image hat zudem eine besonders starke Auswirkung auf die durch den Konsumenten wahrgenommene Qualität [14]. Aus diesem Grund ist der Service Integrator idealerweise das Unternehmen mit dem besten Image; er muss das Image jedoch durch eine hohe Leistungsqualität absichern. Um diese Qualität bieten zu können, fordert der Service Integrator eine hohe Qualität von den Service Providern hinsichtlich der erbrachten Einzelleistungen. Hierzu gehören Qualitätskriterien, wie z. B. die Zuverlässigkeit der Unternehmen, Flexibilität, Verbindlichkeit sowie Kosten- und Prozesseffizienz im Netzwerk [30]. Aus diesen Qualitätsanforderungen ergeben sich die spezifischen Herausforderungen für eine IV im Netzwerk, die mit einer angemessenen technologischen Infrastruktur adressiert werden müssen. Da in einem Dienstleistungsnetzwerk von heterogenen Applikationsarchitekturen bei den Unternehmen auszugehen ist [32], muss im Rahmen der Entwicklung einer effizienten IV ein optimaler, auf die Situation angepasster, Integrationsgrad erreicht werden [29]. Daraus lässt sich schließen, dass die Steuerung der Dienstleistungsqualität in Netzwerken wesentlich komplexer ist, als innerhalb eines einzelnen Dienstleistungsunternehmens [4, 23]. Die IV hat zwei Seiten, die es zu steuern gilt: Einerseits die Informationsnachfrage und andererseits das Informationsangebot [28], d.h. die Informationsbereitstellung durch die Applikationsinfrastruktur. Die Leistungssteuerung der IV zerfällt also in zwei Wirkungsbereiche: Die Steuerung der fachlichen Zielsetzungen (Informationsnachfrage und -angebot) und die Steuerung der technischen Informationsbereitstellung. In Dienstleistungsnetzwerken ergeben sich in der Regel signifikante Transaktionskosten [9, 35], wie Anbahnungs-, Vereinbarungs-, Abwicklungs-, Kontroll- oder Anpassungskosten [28, 32]. Diese fallen im Rahmen der IV in Dienstleistungsnetzwerken für die Informationsbereitstellung an, die sich aus den Kosten für die Informationsbeschaffung/Recherche und die Informationsaufbereitung zusammensetzen. Hinzu kommen die Kosten für Betrieb und Wartung der Applikationsinfrastruktur. Die Höhe der Transaktionskosten im Dienstleistungsnetzwerk wird durch folgende Kriterien beeinflusst: Die Häufigkeit der Transaktionen zwischen den Unternehmen, die Unsicherheit der Unternehmen hinsichtlich z. B. opportunistischem Verhalten, die direkten transaktionsspezifischen Investitionsausgaben (z. B. neue Informations- und Kommunikationstechnologie) [2, 19]. Aus der Höhe der Transaktionskosten ergibt sich in der Regel die Struktur der Koordination zwischen den Unternehmen [31]. Werden sehr hohe Transaktionskosten erwartet, ist die Überlegung sinnvoll, den Integrationsgrad zu steigern. Dadurch können zukünftige Transaktionskosten gesenkt werden. Zusätzlich wirken sich auf die Qualität der Kooperationsbeziehung Faktoren, wie die subjektiven Vorstellungen der Unternehmen, die Kooperationsdauer, die „innere Verpflichtung“ der Service Provider gegenüber dem Service Integrator, die ökonomische Anreiz-Beitragsstruktur sowie die Machtbeziehung zwischen dem Service Integrator und den Service Providern, aus [4]. Diese Faktoren bedingen die Wahl der Kooperationsform. Der optimale situationsspezifische Integrationsgrad 527 wird in diesem Beitrag auf einem Spektrum von drei verschiedenen Architekturen veranschaulicht, die im Rahmen der IV von den Unternehmen gewählt werden können. 3. Architekturen für die Informationsversorgung in Dienstleistungsnetzwerken Ein Controllingansatz für eine leistungsorientierte IV muss auf die Anforderungen der Kooperation zugeschnitten sein. Aus diesem Grund werden nachfolgend drei mögliche Szenarien für die IV in Dienstleistungsnetzwerken beschrieben. Sie ergeben sich aus den Ausprägungen der folgenden Kriterien: • Ziele der IV: Die Organisation der IV verfolgt je nach Kooperationsintensität bestimmte Ziele, die bekannt sein müssen, um die Struktur der Architektur ableiten zu können [4]. Aus den Zielen der IV ergeben sich die Vorgaben für die Standards der Ausgangsdaten („Berichte“). • Ausgangsdaten („Berichte“): Definition der Ausgangsdaten, die zur Steuerung der Kooperation erzeugt und in entsprechenden Berichten zusammengefasst werden. Die Standards der Ausgangsdaten („Berichte“) variieren in Abhängigkeit von der Architektur; je dezentraler die Datenhaltung organisiert ist, desto restriktiver müssen die Standards sein. Anhand der Ausgangsdaten ergibt sich, welche Eingangsdaten benötigt werden [22]. • Eingangsdaten: Die Eingangsdaten stellen den Input für die Erzeugung der Berichte dar. Die erforderliche Standardisierung der Eingangsdaten ergibt sich aus dem Zentralisierungsgrad der Berichtserstellung. Die Definition der Ausgangs- und Eingangsdaten bestimmen die erforderlichen IV-Prozesse [22]. • Prozesse: Die IV-Prozesse beziehen sich entweder auf die fachlichen (z. B. Datenbereitstellung, Informationsaufbereitung, Informationsverteilung, Kommunikation sowie Umsetzung von Qualitätssicherungsmaßnahmen) oder die technischen Aufgaben der IV (z. B. Definition der Schnittstellen, Anpassung der Applikationen und Schnittstellen an veränderte Anforderungen, Wartung der bestehenden Applikationsarchitektur) [11]. Ausgehend von den Zielen der IV, Ausgangsdaten, Eingangsdaten und Prozessen kann ein Kontinuum von drei Kooperationsszenarien aufgespannt werden: dezentralisiert, hybrid, zentralisiert. Daraus lassen sich als Ergebnis drei Architekturen mit den daraus resultierenden Rollen und Verantwortlichkeiten (fachlicher und technischer Datensteward [26]) ableiten (vgl. Tabelle 1): • Architektur 1 („Separate IV“): Szenario 1 („Dezentralisiert“) ist gekennzeichnet durch den ausschließlichen Austausch von Berichten zwischen den Unternehmen. Das bedeutet, dass zu Beginn der Kooperation der Informationsbedarf für die gemeinsame Qualitätssicherung festgelegt wird (Steuerung der Informationsnachfrage). Zudem wird ein Vorgehen zur Kommunikation und Umsetzung von Qualitätssicherungsmaßnahmen auf Basis von Berichten definiert. Die Datensammlung und -aufbereitung sowie die eingesetzte Infrastruktur liegen vollständig in der Verantwortung der kooperierenden Unternehmen. Die dezentralen Datenstewards (fachlich) übernehmen die Verantwortung für die Rahmenbedingungen der IV in den beteiligten Unternehmen, z. B. die inhaltliche Datenqualität sowie die dafür erforderlichen Maßnahmen. Die dezentralen Datenstewards (technisch) sind verantwortlich für die Wartung und Weiterentwicklung der jeweiligen Applikationen in den Unternehmen. • In Architektur 2 („Kooperative IV“) erfolgt, ausgehend von Szenario 2 („Hybrid“), eine engere Kopplung der IV der beteiligten Unternehmen, indem die Berichte aus einem gemeinsamen Data Warehouse erzeugt werden. Dieses Data Warehouse wird dediziert für die Qualitätssicherung im Netzwerk aufgesetzt und kann von den beteiligten Unternehmen für diesen Zweck beliebig genutzt werden; die Infrastruktur für Berichterstellung und Auswertungen verbleibt in den Unternehmen. Ebenso liegt die Verantwortung für die in das Data Warehouse zu ladenden Daten bei den Unternehmen. Die Kopplung der IV stellt zusätzliche Anforderungen an die Koordination des fachlichen und technischen Datenmanagements. Für das fachliche Datenmana528 gement muss die entsprechende Verantwortung für die Stammdaten im Data Warehouse festgelegt werden (fachlicher Datensteward). Das technische Datenmanagement betrifft z. B. die Definition der Schnittstellen sowie der Extraktions-, Transformations- und Ladeprozesse (dezentraler technischer Datensteward). Darüber hinaus muss die Verantwortung für die Wartung und Weiterentwicklung der gemeinsamen Infrastruktur sowie die Verteilung der anteiligen Kosten festgelegt werden (zentraler technischer Datensteward). • In Architektur 3 („Integrierte IV“) wird, ausgehend von Szenario 3 („Zentralisiert“), der engste Grad der Kopplung implementiert. Alle beteiligten Unternehmen greifen auf ein gemeinsames Qualitätsmanagement Informationssystem (Q-MIS) zu, das auf einer gemeinsamen Datenbasis aufsetzt und bis zum Berichtssystem vollständig integriert ist, also eine gemeinsame Applikationsarchitektur für die IV zur Qualitätssicherung darstellt. Damit verlagern sich die Verantwortung und die leistungsorientierte Steuerung der IV zu der zentralen Stelle, dem technischen Datensteward. Die Unternehmen sind nur noch für eine zeitgerechte Lieferung der geforderten Eingangsdaten über eine definierte Schnittstelle verantwortlich (fachlicher Datensteward). Tabelle 1: Zuordnung der Architekturen zu Szenarien Szenario 1 Dezentralisiert Kriterium Ziele Ausgangsdaten (Berichte) Eingangsdaten Prozesse Unabhängigkeit der Unternehmen mit Hohe Unabhängigkeit der Unternehmen hoher IV-Flexibilität bei den Berichten: und hohe Austauschbarkeit im Auf der verfügbaren Datenbasis können Dienstleistungsnetzwerk. beliebige Berichte definiert werden. Definition der standardisierten DatenobHochstandardisierte Daten. Berichtsjekte für die gemeinsamen Berichte und standards werden durch den Service von generellen Datenobjekten für die DeIntegrator vorgegeben. finition der individuellen Berichte. Hochstandardisierte Daten, sichergestellt *nicht relevant* durch den Einsatz von Ontologien und Metadaten [18]. Fachliche und technische Prozesse laufen in den beteiligten Unternehmen unabhängig voneinander; BerührungsFachliche Prozesse zur Bereitstellung der punkte gibt es an zwei Stellen: Daten laufen in den beteiligten Unter- - Rollen und Verantwortlichkeiten Die Applikationsarchitekturen in den Unternehmen sind vollständig unabhängig voneinander, also dezentralisiert; Maßnahmen zur Standardisierung oder Integration von weiteren/neuen Daten müssen abgestimmt werden. - - Szenario 3 Zentralisiert Enge Zusammenarbeit mit maximaler IVFlexibilität. Metadatenmanagement als Basis für die Standardisierung; darüber hinaus Standardisierung der gemeinsamen Berichtsobjekte. Einhaltung von Datenqualitätsanforderungen bei der Dateneingabe (z. Β. Datenformat, Korrektheit). Fachliche Prozesse zur Bereitstellung der Eingangsdaten verbleiben in den Unternehmen, sämtliche technischen Prozesse für die IV sind zentralisiert. Fachliche Prozesse zur Aufbereitung und Die Koordination der Informations- nehmen unabhängig voneinander; Analyse der Daten sowie zur Informatibereitstellung erfolgt durch eine ge- ebenso die technischen Prozesse, die die onsbereitstellung in Berichten sind zentmeinsame Definition von Zeit, Um- Applikationen in den Unternehmen ralisiert. betreffen. fang, Form und Adressat. Das Datenmanagement ist zentralisiert: Die Rücksteuerung bei Qualitätsab- Aufbau eines zusätzlichen Datenbestandes Metadatenmanagement, Stammdatenmafür eine zentralisierte IV. weichungen und der Umsetzung von nagement, Datenaufbereitung (z. B. Maßnahmen erfolgt ebenfalls durch Cleansing) und Datenbereitstellung. eine definierte „offline“-KommuniDie technischen Prozesse sind ebenfalls kation. zentralisiert. Architektur 1: Separate IV Ergebnis Architekturbeschreibung Szenario 2 Hybrid Datensteward (fachlich) in den Unternehmen, je nachdem, wer gerade die Anbieter-Rolle übernimmt. Verantwortung für Datenqualität und Maßnahmen in den Unternehmen, Datensteward (technisch) in jedem Unternehmen. Architektur 2: Kooperative IV Architektur 3: Integrierte IV Wie Architektur 1: Applikationsarchitekturen der beteiligten Unternehmen sind Vollständige Architektur mit integrierter Datenbasis und Analyse- sowie Berichtsunabhängig voneinander; es werden Schnittstellen zu dem gemeinsamen Data applikationen. Warehouse definiert. - Datensteward (fachlich) zur Erhebung, Aufbereitung und Datenqualitätssicherung der Eingangsdaten getrennt in den Unternehmen, Datensteward (technisch) pro Unternehmen, zentraler Datensteward (technisch) mit Verantwortung für die Daten im Data Warehouse. 529 - Datensteward (fachlich) in den Unternehmen, Zentraler Datensteward (technisch). Ausgehend von den Zielen und der Struktur der Architekturen sowie der zuvor erläuterten fachlichen Grundlagen, erfolgt im nächsten Abschnitt die Konzeptionierung von Controllingansätzen für eine leistungsorientierte Steuerung der IV. 4. Controllingansatz für die leistungsorientierte Steuerung der Informationsversorgung Zwei jüngere Ansätze aus der Literatur eignen sich als Grundlage für einen Ansatz zur Leistungssteuerung (für einen Überblick vgl. [17]). Die IS Functional Scorecard nimmt eine Leistungsbewertung der IT anhand der drei Hauptbereiche „Systemleistung“, „Informationswert“ sowie „Serviceleistung“ und entsprechender Kennzahlen für die Bereiche vor. Sie wurde von Chang und King [8] vorgeschlagen und in 149 Unternehmen auf ihre Anwendbarkeit getestet. Sie lässt sich aufgrund ihrer Bandbreite für die verschiedenen Architekturen der IV in Dienstleistungsnetzwerken einsetzen und entsprechend anpassen. Ein zweiter Ansatz, der sich zur Leistungsbewertung der IT eignet, wurde von Heo und Han [16] vorgestellt. Sie haben mit einer Umfrage bei 137 Managern untersucht, inwieweit die IT-Infrastruktur bei der Verwendung bestimmter Bewertungsparameter einen Einfluss hat. So werden, je nach Grad der Zentralisierung oder Dezentralisierung (optimaler Integrationsgrad), hauptsächlich drei Parameter eingesetzt: Die Systemqualität (z. B. Antwortzeiten), die Informationsqualität, gemessen durch Qualitätskriterien (z. B. Vollständigkeit), und schließlich die organisatorische Wirkung (z. B. Grad der Zielerreichung). Wie bereits festgestellt, sind bei der Betrachtung von Dienstleistungsnetzwerken ebenso Transaktionskosten von Bedeutung. Für den endgültigen Ansatz ist demnach die Kostenseite zu ergänzen, da sie augenscheinlich von den beiden vorgestellten Ansätzen vernachlässigt wird. Dort wird lediglich pauschal die Kosteneffizienz erwähnt. Die grundlegenden Elemente eines Controllingansatzes sind die Controllingobjekte („Was wird gesteuert?“), die Controllinginstrumente („Womit werden die Controllingobjekte gesteuert?“) und die Messgrößen bzw. Kennzahlen („Welche Werte wurden erzielt bzw. werden angestrebt?“) [21]. Der hier verwendete Controllingansatz verfolgt das Ziel, die IV für die Qualitätssicherung in Dienstleistungsnetzwerken leistungsorientiert zu steuern. Der Controllingansatz umfasst folgende, auf die IV ausgerichtete Elemente, die sich aus den definierten Kriterien der Szenarien und den Eigenschaften der Architekturen (vgl. Tabelle 1) ableiten: • Controllingobjekte: Controllingobjekte sind die Kostentreiber, die auf ihre Effizienz überprüft werden sollen. In diesem Fall sind das die Berichte, die durch die IV erzeugt werden. Die Berichte setzen sich aus sogenannten Informationsobjekten zusammen, wie z. B. Informationen zu Produkten, Märkten, Kunden. Informationsobjekte erzeugen unterschiedlichen Erhebungsaufwand; deshalb sind sie als Kostentreiber zu untersuchen. Weitere Controllingobjekte sind z. B. Datenmanagement-Prozesse oder Aktivitäten, die den Rollen zugeordnet sind, sowie Architekturkomponenten. • Controllinginstrumente (beispielhaft): Controllinginstrumente sind Methoden und Modelle, die für die leistungsorientierte Steuerung der IV eingesetzt werden können. Hierzu gehören z. B. das Prozess-Controlling, das Activity-based Costing oder das Komplexitätsmanagement der Architekturkomponenten. In Tabelle 2 werden nicht für jede Architektur konkreten Instrumente benannt. Für Architektur 1 wird lediglich eine Stellschraube erwähnt, mit deren Hilfe die relevanten Kennzahlen zu beeinflussen sind (z. B. können durch die Standardisierung der Berichte/Informationsobjekte die Informationskosten gesenkt werden). 530 • Kennzahlen (beispielhaft): Die Kennzahlen werden für die „Systemleistung“, den „Informationswert“ und die „Serviceleistung“ der eingesetzten Infrastruktur pro Architektur definiert (abgeleitet aus [8, 10, 16]). Zusätzlich werden Kostenparameter („Informationskosten“ abgeleitet aus der Transaktionskostentheorie) für die Informationsbereitstellung und die Infrastruktur pro Unternehmen sowie die gemeinsamen Architekturkomponenten erfasst. Der Controllingansatz für Architektur 1 konzentriert sich auf die gemeinsamen Informationsobjekte in den Berichten als Controllingobjekte. Das Instrumentarium zur leistungsorientierten Steuerung zielt auf den Standardisierungsgrad und den geforderten Umfang der Berichte ab. Davon ausgehend werden die IV-Prozesse und die einzusetzende Infrastruktur festgelegt. Ergänzt werden die Überlegungen durch die relevanten „Informationskosten“ für diese Architektur. Der Controllingansatz fokussiert auf die Steuerung der IV für die Koordination der Qualitätssicherung, und so wurden hauptsächlich koordinative Leistungen berücksichtigt. Im Bereich „Informationswert“ werden alle Kennzahlen aus [8] übernommen und teilweise in Tabelle 2 dargestellt. Der Bereich „Serviceleistung“ entfällt komplett, weil nur Berichte erzeugt werden, die keine weitere Serviceleistung beanspruchen. Die „Informationskosten“ bilden den IV-Prozess inklusive Infrastruktur und Koordinationskosten ab. Der Controllingansatz für Architektur 2 wird erweitert um die Steuerung des Data Warehouse und die dazugehörigen Prozesse. Die Controllingobjekte sind also die Informationsobjekte in den Berichten, die Datenmanagement-Prozesse zur Integration der Daten in das Data Warehouse (Extraktion, Transformation, Laden), die Aktivitäten des technischen Datenstewards (z. B. Vorbereitung der Struktur für die Abfragen) sowie die Elemente der Applikationsarchitektur für das Data Warehouse. Die Instrumente setzen wie in Architektur 1 an der Standardisierung der Informationsobjekte und dem Umfang der Berichte an. Darüber hinaus zielen sie auf die Effizienz der IV durch das Data Warehouse ab, z. B. um die Durchlaufzeiten bis zur Berichterstellung zu verbessern oder Antwortzeiten zu verkürzen. Im Bereich der Infrastruktur werden vor allem die Komplexität der Schnittstellen zum Data Warehouse und der zu verwaltende Datenumfang gesteuert. Der Vorschlag für die Kennzahlen baut auf den Auswahlkriterien für Architektur 1 auf und wurde ergänzt durch Kennzahlen, die sich einerseits auf die gemeinsame Nutzung der Infrastruktur beziehen (z. B. „Verbesserung des Bewusstseins für Entscheidungen“, „Zugriff auf Informationen anderer Bereiche“) und andererseits auf die Kosten für die gemeinsame Infrastruktur. Für diese Architektur wird auch der Bereich „Serviceleistung“ relevant, da der Service Integrator zu einem gewissen Grad Serviceleistungen für die gemeinsame Infrastruktur des Netzwerks erbringen muss. Der Controllingansatz für Architektur 3 bedingt die höchsten Anforderungen. Die gemeinsamen Datenmanagement-Prozesse und die gemeinsame Applikationsarchitektur zur IV müssen leistungsorientiert gesteuert werden. Gleichzeitig muss eine „faire“ Leistungsverrechnung erfolgen. Die Controllingobjekte aus Architektur 2 werden durch die Architekturelemente des Q-MIS sowie die erforderlichen Datenmanagement-Prozesse und Aktivitäten der Rollen ergänzt. Die Instrumente, die bereits in den Architekturen 1 und 2 zum Einsatz kommen, werden hier vor allem um die Steuerung der Effizienz der Applikationsarchitektur erweitert. Die Kennzahlen der Architekturen 1 und 2 werden um die Kennzahlen ergänzt, die die Leistungen und Kosten der gemeinsamen Infrastruktur messen und steuerbar machen. Tabelle 2 gibt eine Übersicht der Controllingansätze pro Architektur. 531 Tabelle 2: Controllingansatz pro Architektur Elemente Controllingobjekte Instrumente (beispielhaft) Kennzahlen (beispielhaft) Architektur 1: Separate IV Architektur 2: Kooperative IV Architektur 3: Integrierte IV wie Architektur 1, zusätzlich - Datenmanagement-Prozesse zur Integwie Architektur 2, zusätzlich ration der Daten im Data Warehouse - Architekturelemente des Q-MIS Berichte/Informationsobjekte - Aktivitäten der zentralen Rollen - Datenmanagement-Prozesse - Applikationsarchitekturelemente für das Data Warehouse wie Architektur 1, zusätzlich wie Architektur 2, zusätzlich Standardisierung der Be- Prozess-Controlling - Komplexitätsmanagement hinsichtlich richte/Informationsobjekte - Komplexitätsmanagement der Schnittder Applikationsarchitektur stellen - Systemleistung: Zuverlässigkeit der - Systemleistung: wie Architektur 1, zusätzlich Datenzugreifbarkeit, Antund Zugreifbarkeit auf Berichte - Systemleistung: wie Architektur 2 wortzeiten, Durchlaufzeiten - Informationswert: Nützlichkeit, - Informationswert: wie Architektur 2, - Informationswert: wie Architektur 1 Verfügbarkeit, Verlässlichkeit, zusätzlich Integrierbarkeit - Serviceleistung: Antwortzeiten, Flexibilität - Serviceleistung: wie Architektur 2 Serviceflexibilität, Zuverlässigkeit - Serviceleistung: *entfällt* - Informationskosten: wie Architektur 1, - Informationskosten: wie Architektur 2 - Informationskosten: Recherchezusätzlich Serviceleistungskosten, kosten, Nutzungskosten, InfraKosten für das Data Warehouse strukturkosten, Koordinationskosten 5. Fazit und Ausblick Eine effiziente IV ist ein wichtiger Erfolgsfaktor für die wirtschaftliche Gestaltung von Dienstleistungsnetzwerken. Im vorliegenden Beitrag stand die IV für eine Qualitätssicherung im Mittelpunkt der Untersuchungen. Je nach Zielsetzung und Ausgestaltung der Kooperation kann die Art und Weise sowie die technische Form der IV durch unterschiedliche Architekturen umgesetzt werden. Die Zuordnung zu einem Szenario bzw. die damit verbundene Entscheidung für eine bestimmte Architektur wird durch den geforderten Grad an Unabhängigkeit der Unternehmen und der IV-Flexibilität bestimmt. Darüber hinaus erfolgt ein Einbezug der Informationskosten in die Entscheidung für die fachliche und technische Ausgestaltung der Kooperation. Die leistungsorientierte Steuerung der IV in den Architekturen kann z. B. durch eine kostenseitige Erweiterung der IS Functional Scorecard von Chang und King [8] erfolgen. Der Vorteil liegt darin, dass qualitative und quantitative Faktoren, die die Effizienz der IV beeinflussen, erfasst werden können. Der vorgestellte Ansatz wurde zunächst argumentativ-deduktiv auf Basis bestehender Literatur entwickelt. Die Kriterien zur Beschreibung der Szenarien, die Gründe für die Auswahl einer konkreten Architektur durch die Unternehmen und die relevanten Elemente der Controllingansätze, insbesondere die verwendeten Kennzahlen, die sich bei Chang und King auf Einzelunternehmen beziehen, werden in einem nachfolgenden Schritt durch eine empirische Studie überprüft. Literatur [1] AHLERT, D./EVANSCHITZKY, H.: Dienstleistungsnetzwerke, Springer 2003. [2] BAUER, S./STICKEL, E.: Auswirkungen der Informationstechnologie auf die Entstehung kooperativer Netzwerkorganisationen, in: Wirtschaftsinformatik 40 (1998) 5, S. 434-442. [3] BAUMÖL, U./WINTER, R.: Intentions Value Networks – A Business Model of the Information Age, in: P. Miranda et al.: ICEIS 2001 - Proceedings of the 3rd ICEIS, Setubal 2001, S. 1075-1080. [4] BIRKELBACH, R.: Qualitätsmanagement in Dienstleistungscentern, Peter Lang, Frankfurt et al. 1993. [5] BMWI: Die volkswirtschaftliche Bedeutung des Dienstleistungssektors, auf: Navigation/Wirtschaft/dienstleistungswirtschaft,did=239886.html, Abruf 08-07-30. [6] BRUHN, M: Qualitätsmanagement für Dienstleistungen, Springer, Berlin 2006. 532 http://www.bmwi.de/BMWi/ [7] CHAMONI, P.: Informationsqualität in der Informationslogistik, in: is report 5 (2008) 12, S. 44-45. [8] CHANG, J. C./KING, W. R.: Measuring the Performance of Information Systems: A Functional Scorecard, in: Journal of Management Information Systems 22 (2005) 1, S. 85-115. [9] COASE, R. H.: The nature of the firm, in: Economia 4 (1937), S. 386-405. [10] DELONE, W. H./MCLEAN, E. R.. The DeLone and McLean model of information systems success: A ten-year update, in: Journal of Management Information Systems 19 (2003) 4, S. 9-30 [11] FISCHER, T. M./BECKMANN, S.: Die Informationsversorgung der Mitglieder des Aufsichtsrats – Ergebnisse einer empirischen Studie deutscher börsennotierter Aktiengesellschaften, Arbeitspapier der Universität ErlangenNürnberg, 2007. [12] FRIESE, M.: Kooperation als Wettbewerbsstrategie für Dienstleistungsunternehmen, Wiesbaden 1998. [13] GERPOTT, T. J./BÖHM, S.: Strategisches Management in virtuellen Unternehmen, in: H. Albach/D. Specht/H. Wildemann (Hrsg.), Virtuelle Unternehmen, ZfB-Ergänzungsheft (2000) 2, S. 13-43. [14] GRÖNROOS, C.: A service quality model and its marketing implications, in: European Journal of Marketing 18 (1984) 4, S. 36-44. [15] HAMANN, H.: Informationsversorgung in Transnationalen Unternehmungen, Gabler, Wiesbaden 2004. [16] HEO, J./HAN, I.: Performance measure of information systems (IS) in evolving computing environments: an empirical investigation, in: Information & Management 40 (2003) 4, S. 243-256. [17] HESS, T./KINK, N.: Bewertung von IT-Investitionen, in: Zeitschrift für Controlling und Management 51 (2007) 4, S. 272-275. [18] HÖFFERER, P.: Achieving Business Process Model Interoperability Using Metamodels and Ontologies, in: H. Österle/J. Schelp/R. Winter (Hrsg.), Proceedings of the 15th ECIS, St. Gallen 2007, S. 1620-1631. [19] JANSEN, H.: Verfügungsrechte und Transaktionskosten, in: A. Horsch/H. Meinhövel/S. Paul (Hrsg.). Institutionenökonomie und Betriebswirtschaftslehre, Vahlen, München 2005, S. 101-117. [20] JONES, C. ET AL.: Professional Service Constellations: How Strategies and Capabilities Influence Collaborative Stability and Change, in: Organization Science 9 (1998) 3, S. 396-410. [21] KÜTZ, M.: Grundelemente des IT-Controllings, in: M.Kütz/A. Meier (Hrsg.), IT-Controlling, HMD 254 (2007) 4, S. 6-15. [22] KÜTZ, M.: Kennzahlen in der IT, Dpunkt, Heidelberg 2007. [23] MELDAU, S.: Qualitätsmessung in Dienstleistungscentern, Gabler, Wiesbaden 2007. [24] MICHALSKI, T.: Strategische Entwicklungsperspektiven von innovativen wissensintensiven Dienstleistungsangeboten in Wertschöpfungsnetzwerken, in: M. Bruhn/B. Stauss (Hrsg.), Dienstleistungsnetzwerke, Gabler, Wiesbaden 2003, S. 63-85. [25] MILES, R. E./SNOW, C. C.: Organizations: New concepts for new forms, in: California Management Review 28 (1986) 3, S. 62-72. [26] OTTO, B. ET AL.: Unternehmensweites Datenqualitätsmanagement. Ordnungsrahmen und Anwendungsbeispiele, in: B. Dinter/R. Winter (Hrsg.), Integrierte Informationslogistik, Springer, Berlin 2008, S. 211-230[27] PARASURAMAN, A. ET AL.: A Conceptual Model of Service Quality and its Implications for Future Research, in: Journal of Marketing 49 (1985), S. 41-50. 533 [28] PICOT, A. ET AL.: Die grenzenlose Unternehmung. Information, Organisation und Management, 5. Aufl., Gabler, Wiesbaden 2003. [29] SCHWINN, A./WINTER, R.: Entwicklung von Zielen und Messgrößen zur Steuerung der Applikationsintegration, in: O. K. Ferstl et al (Hrsg.), Wirtschaftsinformatik 2005, Heidelberg 2005, S. 587-606. [30] SETH, N. ET AL.: SSQSC: a tool to measure supplier service quality in supply chain, in: Production Planning & Control 17 (2006) 5, S. 448-463. [31] STAUSS, B./BRUHN, M.: Dienstleistungsnetzwerke – Eine Einführung in den Sammelband, in: M. Bruhn/ B. Stauss (Hrsg.), Dienstleistungsnetzwerke, Gabler, Wiesbaden 2003, S. 3-30. [32] SYDOW, J.: Strategische Netzwerke. Evolution und Organisation, Gabler Verlag, Wiesbaden 1992. [33] VOSS, S./GUTENSCHWAGER, K.: Informationsmanagement, Springer, Berlin 2001. [34] WILDE, T./HESS, T.: Forschungsmethoden der Wirtschaftsinformatik. Eine empirische Untersuchung in: Wirtschaftsinformatik 49 (2007) 4, S. 280–287 [35] WILLIAMSON, O. E.: The Economics of Organization: The Transaction Cost Approach, in: The American Journal of Sociology 87 (1981) 3, S. 548-577. 534 VORGEHENSMODELL ZUR ENTWICKLUNG VON REIFEGRADMODELLEN Ralf Knackstedt, Jens Pöppelbuß, Jörg Becker1 Kurzfassung Reifegradmodelle stellen für das IT-Management ein wichtiges Instrument dar, weil sie die Positionierung der eigenen Organisation ermöglichen und Entwicklungsrichtungen aufzeigen. Obwohl eine Vielzahl Reifegradmodelle entwickelt wurden, ist die Dokumentation des Vorgehens zu ihrer Entwicklung verhältnismäßig lückenhaft. Der vorliegende Beitrag will helfen, diese Lücke zu schließen, indem auf der Basis wissenschaftstheoretischer Überlegungen Anforderungen an die Entwicklung von Reifegradmodellen abgeleitet, anhand dieser Kriterien einige der wenigen dokumentierten Vorgehensweisen verglichen und die Ergebnisse in einem allgemeingültigen Vorgehensmodell zusammengefasst werden. 1. Bedeutung von Reifegradmodellen für das IT-Management Für eine stetige Verbesserung des IT-Managements ist die Standortbestimmung im Hinblick auf die informationstechnischen Fähigkeiten und die Güte der eigenen Leistung grundlegend. Für jeden zu untersuchenden Aspekt der unternehmenseigenen IT ist dabei festzulegen, welche Merkmale mittels welcher Messvorschriften beurteilt werden müssen, um die Ist-Situation zu bestimmen und dieser eine definierte Güte bzw. Reife zuzuweisen. Reifegradmodelle (engl.: Maturity Models) stellen hilfreiche Instrumente zur Klärung dieser Fragen dar [5]. Ein Reifegradmodell umfasst eine Folge von Reifegraden für eine Klasse von Objekten und beschreibt dadurch einen antizipierten, gewünschten oder typischen Entwicklungspfad dieser Objekte in aufeinander folgenden diskreten Rangstufen; beginnend in einem Anfangsstadium bis hin zur vollkommenen Reife. Das Fortschreiten auf diesem Entwicklungspfad bedeutet zumeist eine stete Steigerung der Leistungsfähigkeit bzw. Güte des betrachteten Objekts, wobei das Reifegradmodell als Skala zur Beurteilung dient. Ein Reifegrad ist durch festgelegte Merkmale des zu untersuchenden Objekts und durch die jeweils zur Erreichung des Reifegrads erforderlichen Merkmalsausprägungen definiert. Die Anwendung des Reifegradmodells zur Ermittlung individueller Reifegrade von Objekten erfolgt häufig mittels vorgegebener Assessment-Methoden (z. B. Fragebögen). Zu einem gegebenen Zeitpunkt werden Beobachtungen gesammelt und validiert, um eine Zustandsaufnahme des betrachteten Objekts zu erhalten. Häufig werden Prozesse durch Reifegradmodelle 1 Westfälische Wilhelms-Universität Münster, European Research Center for Information Systems, Leonardo-Campus 3, 48149 Münster 535 beurteilt. Als Ergebnis werden dann einheitliche und überprüfbare Aussagen zu ihrem Status und zur Qualität ihrer Durchführung erwartet. Ausgehend von der ermittelten Ist-Situation lassen sich Verbesserungsvorschläge und Handlungsempfehlungen ableiten [8]. Als einer der Ersten präsentierte Nolan mit seiner Stage Theory ein mehrstufiges Reifegradmodell im Kontext von Informationssystemen [12]. Sein Modell identifiziert basierend auf empirischen Untersuchungen aufeinander folgende Entwicklungsstufen der Informationsverarbeitung. Seitdem wurden Reifegradmodelle für eine große Bandbreite unterschiedlicher Aspekte der IT von verschiedenen Gruppen, wie z. B. Wissenschaftlern, Beratern, Praktikern sowie regierungsabhängigen und -unabhängigen Organisationen entwickelt. Als das bekannteste Reifegradmodell gilt das Capability Maturity Model (CMM), das ab 1986 im Rahmen einer Initiative des USVerteidigungsministeriums am Software Engineering Institute (SEI) der Carnegie Mellon University in Pittsburgh entwickelt wurde. Es beschreibt Reifegrade von Softwareentwicklungsprozessen und diente für viele weitere Reifegradmodelle als Entwicklungsgrundlage. Recherchen zeigen, dass mehr als hundert verschiedene Reifegradmodelle vorgeschlagen werden [5]. Die Veröffentlichung immer neuer Reifegradmodelle für häufig sehr ähnliche Anwendungsbereiche erweckt aber zunehmend den Eindruck einer gewissen Beliebigkeit der vorgeschlagenen Modelle. Nur in seltenen Fällen wird überhaupt offen gelegt, wie die Entwicklung eines neuen Reifegradmodells motiviert war, in welchen Schritten es entwickelt wurde, wer an diesen Schritten beteiligt war und ob und wie evaluiert wurde, dass das neue Modell seine Funktion erfüllt. Forschungsziel des vorliegenden Beitrags ist es, ein Vorgehensmodell zur Entwicklung von Reifegradmodellen zu entwickeln, dessen Befolgung diesen verbreiteten Mängeln entgegenwirkt. Zunächst werden Kriterien identifiziert, die an den Entwicklungsprozess von Reifegradmodellen zu stellen sind (Abschnitt 2). Anhand dieser Kriterien werden Entwicklungsprozesse der wenigen hinsichtlich dieses Aspektes ausführlich dokumentierten Reifegradmodelle miteinander verglichen (Abschnitt 3). Die hieraus gewonnenen Erkenntnisse bilden die Grundlage für die Konstruktion des Vorgehensmodells zur Entwicklung von Reifegradmodellen (Abschnitt 4). Hinweise auf weiterführende Forschungsvorhaben schließen den Beitrag ab (Abschnitt 5). 2. Kriterien an die Entwicklung von Reifegradmodellen Reifegradmodelle stellen Artefakte zur Lösung des Problems der Standortbestimmung und Ableitung von Verbesserungsvorschlägen dar (vgl. Abschnitt 1). Dementsprechend wird der Ableitung von Kriterien an die Reifegradmodellentwicklung im Folgenden zu Grunde gelegt, dass die Entwicklung eines Reifegradmodells Gegenstand von Design Science Research ist. Design Science strebt eine Verbesserung der Problemlösungsfähigkeit durch die Schaffung innovativer ITArtefakte an [6]. Die im Rahmen von Design Science geschaffenen Artefakte umfassen sämtliche Elemente, die bei der Entwicklung von Informationssystemen zu berücksichtigen sind. Hierbei handelt es sich insbesondere um Sprachkonstrukte, Modelle, Methoden und Implementierungen [6]. Da Reifegradmodelle solche Artefakte darstellen, sind die an Design Science zu stellenden Anforderungen auch auf die Entwicklung von Reifegradmodellen anzuwenden. Nach [10] und [6] soll Design Science in einer mehrfachen Wiederholung zweier aufeinander folgender Phasen erfolgen. In der ersten Phase wird das Artefakt entwickelt, in der zweiten Phase wird es auf seinen Problemlösungsbeitrag hin evaluiert. Dem Bild einer Spirale folgend soll so nach Möglichkeit ein immer höheres Niveau der Problemlösungsqualität und ihres empirischen Nachweises erreicht werden. Es reicht demnach nicht, Artefakte lediglich zu schaffen, sondern diese sind 536 in Bezug auf den Nutzen, den sie für den vorliegenden Problembereich und Anwender stiften, zu evaluieren. [6] definieren sieben Richtlinien (Guidelines), die die Durchführung von Design Science leiten sollen. Basierend auf den Ausführungen von [6] und weiterer Literatur zu Design Science im Kontext der Wirtschaftsinformatik (engl.: Information Systems) präsentieren [15] ein generisches Prozessmodell zur Durchführung von Design Science, welches explizit die iterative Wiederholung von Prozessschritten sowie vier verschiedene Einstiegspunkte in die Entwicklung von Artefakten vorsieht. Diese Arbeiten bilden im Folgenden die Grundlage, um wesentliche Kriterien an den Entwicklungsprozess von Reifegradmodellen zu identifizieren. Ziel von Design Science ist die Entwicklung eines innovativen Problemlösungsartefakts (Richtlinie „Artefakte als Designergebnis“, Nr. 1), das einen Beitrag zum bisherigen Stand der Forschung liefert (Richtlinie „Forschungsbeitrag“, Nr. 4). Als Konsequenz für den Entwicklungsprozess von Reifegradmodellen ergibt sich hieraus: • K1 (Vergleich mit existierenden Reifegradmodellen): Die Notwendigkeit eines zu entwickelnden Reifegradmodells ist durch einen Vergleich mit bestehenden Reifegradmodellen zu begründen. Die Prozessbeschreibung von Design Science sieht ein iteratives Vorgehen zur Entwicklung des Problemlösungsbeitrags vor. Die Richtlinie „Design als Suchprozess“ (Nr. 6) betont ebenfalls, dass eine Lösung iterativ unter Verwendung der jeweils verfügbaren Mittel vorgeschlagen, verfeinert und evaluiert und ggf. weiterentwickelt wird. Auf die Entwicklung eines Reifegradmodells bezogen bedeutet dies: • K2 (Iteratives Vorgehen): Reifegradmodelle sind iterativ in mehreren Schritten zu entwickeln. • K3 (Evaluation): Die in die Reifegradmodellentwicklung eingehenden Grundlagen und Prämissen, sowie die Funktionserfüllung durch das Instrument selbst sind in den einzelnen Schritten zu evaluieren. Die Notwendigkeit der Evaluation wird auch von der Richtlinie „Evaluation“ (Nr. 3) betont. Dabei wird hervorgehoben, dass die Evaluation der (Zwischen-)Ergebnisse mit geeignet zu wählenden wissenschaftlichen Methoden zu erfolgen hat. Aus dem Umstand, dass für die Entwicklung des Artefakts selbst und für die Evaluation der jeweiligen Ergebnisse unterschiedliche Methoden eingesetzt werden können, folgt, dass Design Science in der Regel multimethodisch erfolgt. Dies wird von einigen Autoren auch als grundlegendes Charakteristikum von Design Science postuliert [6]. Die gewählten Methoden sind dabei stringent aufeinander abzustimmen, wie die Richtlinie „Stringenz der Forschungsmethoden“ (Nr. 5) betont. Dementsprechend ergibt sich folgendes Kriterium: • K4 (Multimethodisches Vorgehen): Die Entwicklung von Reifegradmodellen bedient sich unterschiedlicher Forschungsmethoden, deren Einsatz jeweils begründet zu wählen und aufeinander abzustimmen ist. Die Richtlinie „Problemrelevanz“ (Nr. 3) besagt, dass das Problemlösungsartefakt nicht nur innovativ, sondern dass das zu lösende Problem auch relevant für Forschung und/oder Praxis sein soll. Dies kann wiederum mit unterschiedlichen wissenschaftlichen Methoden gezeigt werden, z. B. durch eine Befragung zukünftiger potenzieller Nutzer des Reifegradmodells. Der Nachweis der Relevanz erfordert zudem eine genaue Definition des zu lösenden Problems, was für nachfolgende Evaluationen ebenfalls Voraussetzung ist. Deshalb werden die folgenden Kriterien betrachtet: • K5 (Aufzeigen der Problemrelevanz): Der Bedarf eines Problemlösungsbeitrags in Form des zu entwickelnden Reifegradmodells in Forschung und/oder Praxis ist darzulegen. 537 • K6 (Problemdefinition): Der zukünftige Anwendungsbereich des Reifegradmodells einschließlich seiner Einsatzvoraussetzungen und der mit dem Reifegradmodell angestrebte Nutzen sind vor der Entwicklung festzulegen. Von grundlegender Bedeutung für wissenschaftliches Vorgehen ist die Dokumentation des Forschungsprozesses selbst. Die Richtlinie „Kommunikation der Forschungsergebnisse“ (Nr. 7) betont, dass die Ergebnisse den verschiedenen Nutzergruppen adressatengerecht zu präsentieren sind. Neben den in [6] im Vordergrund stehenden praktisch orientierten Nutzern, stellen auch Wissenschaftler Ansprüche an die Kommunikation, die im Gegensatz zu denen der Nutzer neben der Ergebnisdarstellung auch die Darstellung des Forschungsprozesses betreffen. Dementsprechend sollen des Weiteren die folgenden beiden Kriterien berücksichtigt werden: • K7 (Adressatengerechte Ergebnisbereitstellung): Das Reifegradmodell ist den Nutzern in adressatengerechter Weise, d. h. unter Berücksichtigung ihrer Anwendungsvoraussetzungen und -interessen, zur Verfügung zu stellen. • K8 (Wissenschaftliche Dokumentation): Der Prozess der Entwicklung des Reifegradmodells ist hinsichtlich der Einzelschritte, Beteiligten, angewendeten Methoden und Ergebnisse ausführlich zu dokumentieren. 3. Vergleich der Entwicklungsprozesse einzelner Reifegradmodelle Anhand der zuvor wissenschaftstheoretisch begründeten Kriterien sollen im Folgenden bestehende Reifegradmodelle miteinander verglichen werden. Eine wesentliche Voraussetzung für die Durchführung dieses Vergleichs bildet das Kriterium K8 (Wissenschaftliche Dokumentation), da dieses eine ausführliche Dokumentation des Entwicklungsprozesses bedingt. Diesbezüglich konnten acht Reifegradmodelle als geeignet für eine eingehende Analyse ihrer Entwicklungsprozesse identifiziert werden, von denen fünf nachfolgend in einer Synopse bezüglich der hergeleiteten Kriterien gegenübergestellt (vgl. Tabelle 1) werden. Hierzu zählen zum einen das Analysis Capability Maturity Model (ACMM), welches für das USamerikanische National Reconnaissance Office (NRO) entwickelt wurde. Es dient dazu, Bewertungen der Prozesse von Organisationen vorzunehmen, die z. B. für die öffentliche Hand Analysen erstellen [3]. Reifegrade können dann bei der Vergabe von wichtigen Studien zu Rate gezogen werden. Als zweites Modell wird das Reifegradmodell zur Business Process Management Maturity (BPMM) von [17] untersucht. Die Entwicklung dieses Modells wurde durch die Feststellung motiviert, dass bisherige Reifegradmodelle sich auf einzelne Facetten des Geschäftsprozessmanagements beschränken und daher nicht zufriedenstellen. Die Entwickler betonen insbesondere, dass ihr Entwicklungsprozess wissenschaftlichen Ansprüchen genügen soll [5]. Als Drittes wird das Capability Maturity Model Integration (CMMI) in die Synopse eingeschlossen. Das CMMI integriert verschiedene Modelle, die im Umfeld des äußerst populären, ursprünglichen Capability Maturity Model (CMM) entstanden sind. Es beschränkt sich nicht mehr nur auf Softwareentwicklungsprozesse, sondern betrachtet sowohl die Produktentwicklung, den Produkteinkauf als auch die Serviceerbringung [2]. Des Weiteren findet das von der Victoria University of Wellington in Neuseeland veröffentlichte E-Learning Maturity Model (eMM) Berücksichtigung. Es soll Institutionen wie z. B. Hochschulen dazu dienen, ihre Fähigkeiten in Bezug auf die nachhaltige Entwicklung, Einführung und Nutzung von E-Learning zu messen und mit anderen Institutionen zu vergleichen [11]. Erste, auf dem eMM basierende Benchmarking-Studien wurden bereits in Neuseeland durchgeführt. Abschließend wird mit dem IS/ICT Management Capability Maturity Framework (IC/ICT CMF) ein Reifegradmodell zum IT-Management präsentiert [18]. Es ist das Ergebnis eines For- 538 schungsprojekts mit dem Ziel, ein möglichst umfassendes Modell zur Bestimmung von Reifegraden der Leistungsfähigkeit des IT-Managements zu entwickeln. Nicht dargestellt werden die folgenden ebenfalls vergleichsweise gut dokumentierten Modelle: das Business Process Maturity Model (BPMM Lee) [9], da hierzu weniger Dokumentation vorhanden ist als zum betrachteten Reifegradmodell der gleichen Domäne (BPMM Rosemann); das Capability Maturity Model (CMM) [14], da dies ein Vorgänger des betrachteten CMMI ist; und das Knowledge Management Capability Assessment (KMCA) [5], da sein Entwicklungsprozess in den Hauptphasen mit dem des BPMM von Rosemann übereinstimmt [17]. Auffällig ist, dass im Vorfeld der Entwicklung aller fünf betrachteten Modelle zunächst eine Sichtung bestehender Reifegradmodelle erfolgte. Ebenso lässt sich jeweils ein iteratives Vorgehen feststellen, bei dem insbesondere die Evaluation von Zwischenversionen in Case Studies zu anschließenden Modellveränderungen geführt hat. Umfangreiche Literaturrecherchen legten durchweg die Basis für die Kernelemente der Reifegradmodelle und wurden häufig durch Konsultation von Domänenexperten ergänzt. Die Problemrelevanz wurde in Einzelfällen durch einen konkreten Auftrag aufgezeigt, basierte jedoch häufig auf einer eher allgemeinen Herleitung. Die Problemdefinitionen stellen insbesondere Beurteilung und Vergleich von Unternehmen im Hinblick auf ihre Fähigkeiten in spezifischen Domänen in den Vordergrund. Die Art und Weise der Ergebnisbereitstellung variiert stark und reicht von einem einzelnen Konferenzbeitrag bis hin zu hundertseitigen Berichten und Vorgehensbeschreibungen. Frei verfügbare Fragebögen für ein Self-Assessment heben sich in diesem Zusammenhang positiv hervor. Tabelle 1: Synopse zu den Entwicklungsprozessen von Reifegradmodellen Kriterium Vergleich mit existierenden Reifegradmodellen (K1) Iteratives Vorgehen (K2) Analysis Capability Maturity Model (ACMM) •Vergleich mit CMMI •Orientierung an CMMI-Stufen Business Process Capability Management Maturity Model Maturity Integration (BPMM) (CMMI) •Analyse existieren- •Übertragung von Crosby’s Quality der Reifegradmodelle zum Business Maturity Grid auf die SoftwareProcess Manageentwicklung ment, die nicht zufriedenstellen •Entwicklung eines ersten Modells durch Literaturrecherche und Expertenbefragungen •Integration von Prozessbereichen des CMMI •Modellveränderungen in Folge einer Case Study •Zunächst Herleitung von vier Dimensionen •„Factor“Dimension umfasst zunächst fünf Faktoren •Einsatz von Delphi-Studien zur Ermittlung von „Factors“ und untergeordneten Fähigkeitsbereichen •Zunächst Entwicklung des Software Process Maturity Framework (SPMF) •Weiterentwicklung zum CMM •Integration mit anderen Modellen zum CMMI •Jeweils Reviews von Zwischenversionen 539 E-Learning Maturity Model (eMM) IS/ICT Capability Maturity Framework (IS/ICT CMF) •Analyse von ITManagementReifegradmodellen (Nolan’s Stage Theory, CMM, Strategic Grid) •Übernahme von Konzepten des CMM und SPICE (Software Process Improvement and Capability Determination) •Anwendung in •Identifikation Case Studies und initialer IndikatoWorkshops führten ren durch Literaturzu Änderungen des recherche Modells •Iterative Modellierung zur Eliminierung und Kombination von Indikatoren •Validierung durch Interviews •Finale Anpassungen Kriterium Evaluation (K3) Analysis Business Process Capability Management Maturity Model Maturity (ACMM) (BPMM) •Anwendung in •Anwendung in einer Case Study Case-Studies im durch unabhängige Verlauf von zwei Personen Jahren •Keine Evaluation •Explorative Studer Reifegrade vier dien und fünf •Einsatz von Delphi-Studien zur Festlegung von Modellkomponenten Multimethodisches Vorgehen (K4) •Literaturrecherche zu Phasen von Analyseprozessen •Expertenbefragung Aufzeigen der Problemrelevanz (K5) •Entwicklung im Auftrag des USamerikanischen National Reconnaissance Office (NRO) Problemdefinition (K6) Adressatengerechte Ergebnisbereitstellung (K7) •Literaturrecherche •Delphi-Methode •Expertenbefragungen Capability Maturity Model Integration (CMMI) •Vorversionen des CMM wurden zur Beurteilung zugänglich gemacht (Reviews) •Diskussion des CMM v1.0 auf einem Workshop mit ca. 200 Fachkräften •Verbreitete praktische Anwendung •Literaturrecherche zum Thema Produktqualität E-Learning Maturity Model (eMM) •Validierung der ersten Version an einer neuseeländischen Universität •Workshops in Australien und Großbritannien •Anwendung in weiteren Organisationen •Literaturrecherche zu E-LearningProzessen •Prozessmanagement ist laut Studien wichtiges Thema für Unternehmen, welche nach unterstützenden Werkzeugen für ihre Initiativen suchen •Bewertung von •Einordnung von Organisationen, die Unternehmen im Analysen erstellen Hinblick auf ihre Prozessmanagementfähigkeiten •Ursprünglich Regierungsauftrag für die Erstellung von Instrumenten zur Beurteilung von Softwareunternehmen •Wenige empirisch fundierten Erkenntnisse zum Erfolg und Misserfolg von E-LearningInitiativen •Entwicklung eines Werkzeugs zur Beurteilung von Softwareunternehmen •Unterstützung des Vergleichs von Hochschulen o. ä. •Wissenstransfer bzgl. E-Learning •Priorisierung von Investitionen in ELearning-Systeme •66-seitiger Bericht inkl. Modell- und Vorgehensbeschreibung •Wissenschaftliche Publikationen •Bisher keine vollständige Modell- und Vorgehensbeschreibung •573-seitiger Bericht •Separate 246seitige Vorgehensbeschreibung (SCAMPI) •Umfangreiche Webseite •Modell und Vorgehensbeschreibung •Excel-Fragebogen •Beispiele •[5, 17] •[2, 7, 13, 14] •[11] Wissen•[3] schaftliche Dokumentation (K8) IS/ICT Capability Maturity Framework (IS/ICT CMF) •Semi-strukturierte Interviews bzgl. Indikatoren •Ausblick: Quantitative empirische Untersuchung zur Validierung, Implementierung eines AssessmentTools, Benchmarking-Studie •Literaturrecherche •Interative Modellierung •Semi-strukturierte Interviews •Andere Autoren weisen auf den Bedarf der Zusammenführung fragmentierter Ansätze zur Verbesserung des ITManagements hin •IT-Management steht immer neuen und komplexen Herausforderungen gegenüber •Ansätze zur Unterstützung des ITManagements sind fragmentiert •Nur Konferenzbeitrag •[18] 4. Vorgehensmodell für die Entwicklung von Reifegradmodellen Im Folgenden wird ein Vorgehensmodell entwickelt, das acht Phasen der Reifegradmodellentwicklung unterscheidet (vgl. Abbildung 1). Die Vorgehensmodellelemente motivieren sich aus den identifizierten Kriterien. In der graphischen Darstellung des Vorgehensmodells ist dies durch die Annotation der Kriterien an die Vorgehensmodellelemente festgehalten. Das Kriterium K8 wird durch den Ausweis der im Rahmen der Reifegradmodellentwicklung entstehenden Dokumente berücksichtigt, worauf die Zuordnung des Kriteriums K8 zu dem Dokument-Symbol in der Legende hinweist. Außerdem generalisiert das Modell die untersuchten gut dokumentieren Entwicklungspro- 540 zesse. Die Generalisierung wird im Text durch Bezugnahme auf die vorgestellte Synopse dokumentiert. Ausgangpunkt bildet die Problemdefinition. Die initiale Definition des zu lösenden Problems wird in allen untersuchten Beispielen vorgenommen. Dabei werden der adressierte Bereich (z. B. gesamtes IT-Management (vgl. IS/ICT CMF [16]) vs. dessen Teildisziplin (vgl. CMM [14])), und die Zielgruppen (z. B. unternehmensintern vs. -extern) des Reifegradmodells festgelegt. Hierbei sollte auch die Relevanz des adressierten Problems dediziert nachgewiesen werden. Von den untersuchten Modellen wird die Bedeutung der gewählten Problemstellung aber zumeist nur über die Bedeutung des adressierten Bereichs allgemein plausibilisiert. CMMI verweist auf einen Regierungsauftrag. Abbildung 1: Vorgehensmodell für die Reifegradmodellentwicklung Ein Vergleich bestehender Reifegradmodelle findet sich bei allen untersuchten Beispielen. Allerdings variiert der Umfang des Vergleichs. Häufig werden Schwächen eines bekannten Modells zum Anlass für eine Weiterentwicklung genommen (vgl. ACMM [3], BPMM [5]). Dabei unterbleibt gelegentlich die Suche nach weiteren Modellen, die diese Schwächen ggf. bereits adressieren. Neben dieser von der Problemdefinition angestoßenen aktiven Suche nach existierenden Modellen, kann auch die Veröffentlichung eines neuen Reifegradmodells von Dritten einen Modellvergleich initiieren. Dabei ist zu prüfen, ob das neue Modell Anregungen zur Modifikation des selbst entwickelten Reifegradmodells bietet. 541 Ein umfassender Vergleich ist Voraussetzung für eine begründete Festlegung der Entwicklungsstrategie. Mit der vollständigen Neuentwicklung, der Weiterentwicklung eines einzelnen Reifegradmodells (vgl. CMM [14]), der Kombination mehrerer Modelle zu einem neuen Reifegradmodell (vgl. CMMI [2]) und der Übertragung von Strukturen (vgl. eMM [11]) oder Inhalten (vgl. ACMM [3]; IS/ICT CMF [16]) bestehender Reifegradmodelle auf neue Anwendungsbereiche lassen sich Basisstrategien unterscheiden. Die zentrale Phase des Vorgehensmodells bildet die iterative Reifegradmodellentwicklung. In einer mehrfachen Wiederholung werden die Teilschritte Gestaltungsbereich festlegen, Vorgehen wählen, Modellbereich gestalten und Ergebnis prüfen durchlaufen. Der Gestaltungsbereich der höchsten Abstraktionsstufe stellt die Architektur, d. h. die grundlegende Struktur des Reifegradmodells dar. Neben einer eindimensionalen Folge diskreter Stufen (vgl. IT BSC Maturity Model [18]) ist die multidimensionale Reifegraderhebung verbreitet (vgl. IS/ICT CMF [16]). Die verschiedenen Dimensionen können dabei hierarchisch geordnet werden (vgl. BPMM [5]). Unterhalb der Wahl dieser grundlegenden Strukturentscheidung sind die einzelnen Dimensionen und ihre einzelnen Merkmalsausprägungen zu gestalten. Für die Gestaltung der einzelnen Bereiche sind geeignete Vorgehensweisen zu wählen. Verbreitet sind Literaturanalysen (vgl. eMM [11]), die z. B. aus Erfolgsfaktoren und typischen Entwicklungsverläufen Beurteilungskriterien für das Reifegradmodell ableiten. Explorative Forschungsmethoden wie z. B. die Delphi-Methode (vgl. BPMM [4]) und Kreativitätstechniken (vgl. bspw. die iterative Konsolidierung von Indikatoren beim IS/ICT CMF [16]) können ebenfalls zum Einsatz kommen. Im Anschluss wird der zuvor gewählte Modellbereich gemäß dem gewählten Vorgehen gestaltet. Anschließend ist das Ergebnis insbesondere auf Vollständigkeit, Konsistenz und Problemadäquanz zu prüfen. Das Ergebnis dieser Prüfung entscheidet über die Fortsetzung der iterativen Reifegradentwicklung. Im Anschluss an die eigentliche Entwicklung des Reifegradmodells ist im Rahmen der Konzeption von Transfer und Evaluation über die Form des Transfers des Entwicklungsergebnisses in Theorie und Praxis zu entscheiden. Die adressatengerechte Kommunikation des Reifegradmodells kann dabei unterschiedliche Formen annehmen. Neben der verbreiteten Bereitstellung von dokumentbasierten Checklisten (vgl. eMM [11]) und Handbüchern (vgl. CMMI [2]) ist ebenfalls eine softwarewerkzeuggestützte Bereitstellung des Reifegradmodells insbesondere auch über das Internet möglich. Bereits bei der Konzeption des Transfers sind die Möglichkeiten zur Evaluation des Problemlösungsbeitrags des Reifegradmodells mit einzuplanen. Diese Forderung stellt z. B. sicher, dass bereits bei der Schaffung der Kommunikationsmittel den Anwendern die Möglichkeit zum Feedback gegeben wird (z. B. Fragebogen oder Formulare für Änderungsanforderungen in den Benutzerhandbüchern, ausführliche Datensammlung durch die Softwarewerkzeuge). Sofern die Evaluation die Unterscheidung verschiedener Gruppen beinhaltet, so ist bei der Konzeption des Transfers zu berücksichtigen, wie sich ggf. eine Experimentgruppe von einer Kontrollgruppe trennen lässt. In den untersuchten Entwicklungsprojekten wird von diesen Integrationspotenzialen relativ wenig Gebrauch gemacht. Eine quantitative Auswertung der Nutzung eines softwarebasierten Assessment-Instruments wird für das IS/ICT CMF in Aussicht gestellt. Die Implementierung der Transfermittel ist dafür zuständig, das Reifegradmodell den verschiedenen zuvor festgelegten Anwendergruppen auf die geplante Art und Weise verfügbar zu machen. Bei den untersuchten Projekten dominiert die Bereitstellung umfangreicher Berichte (vgl. ACMM [3], CMMI [2]). Fragebogen zum Self-Assessment sind teilweise verfügbar (vgl. eMM [11]), werden jedoch häufig aus kommerziellen Gründen nicht allgemein zugänglich gemacht (z. B. wenn Unternehmensberatungen Reifegradmodelle als Werkzeug für ihre eigene Geschäftstätigkeit entwickeln). 542 Im Rahmen der Durchführung der Evaluation ist festzustellen, inwieweit das Reifegradmodell seinen ursprünglich angestrebten Nutzen bewirkt und eine verbesserte Lösung zur Bestimmung der Ist-Situation, der Ableitung und Priorisierung von Verbesserungsmaßnahmen sowie der anschließenden Fortschrittskontrolle im von der Problemdefinition adressierten Bereich für die jeweilige Zielgruppe darstellt. Dabei sind die zuvor definierten Ziele mit realweltlichen Beobachtungen zu vergleichen. Die untersuchten Projekte setzen zu diesem Zweck hauptsächlich Case Studies ein, in deren Rahmen sie einem ausgewählten kleinen Kreis das Reifegradmodell zur Anwendung überlassen (vgl. BPMM [5]). Eine gegensätzliche Alternative stellt die freie Bereitstellung des Modells über das Internet dar. Dies hat den Vorteil, dass eine Vielzahl von Nutzern im Rahmen des webbasierten Self-Assessment eine große Zahl an Datensätzen generieren, die mit den Erwartungen hinsichtlich der Verteilung der Reifegrade in der Unternehmenspraxis abgeglichen werden können. Die Ergebnisse der Evaluation können eine Weiterentwicklung des Reifegradmodells bewirken. Auch die Veränderung der Konzeption von Transfer und Evaluation unter unveränderter Beibehaltung des eigentlichen Reifegradmodells ist denkbar. Negative Evaluationsergebnisse können außerdem zum Verwerfen des Reifegradmodells führen, was damit verbunden werden sollte, das Modell bewusst, ausdrücklich und nach Möglichkeit aktiv vom Markt zu nehmen. Dieser Schritt kann auch dann notwendig werden, wenn veränderte Rahmenbedingungen das Reifegradmodell ungültig werden lassen. Darüber hinaus ist es möglich, dass mehrere existierende Reifegradmodelle durch ein neues integriertes Modell abgelöst werden sollen, wie es z. B. bei der Entwicklung des CMMI der Fall war [2]. 5. Ausblick Mit der großen Zahl der in den letzten Jahren entwickelten Reifegradmodelle geht die Gefahr einer zunehmenden Beliebigkeit in ihrer Entwicklung einher. Indem die Entwicklung von Reifegradmodellen als Gegenstand von Design Science aufgefasst wurde, konnten in diesem Beitrag begründete Anforderungen an die Entwicklungsprozesse formuliert und ein geeignetes Vorgehensmodell entwickelt werden. Diese Ergebnisse bieten eine Anleitung für eine methodisch fundierte Entwicklung und Evaluation von Reifegradmodellen. Insbesondere wenn Reifegradmodelle nicht nur den Status eines Marketinginstruments von Beratungsunternehmen erlangen sollen, ist ein solches fundiertes Vorgehen unerlässlich. Das hier präsentierte Vorgehensmodell stellt eine Referenz dar, die zur Beurteilung von Reifegradmodellen, auch im Rahmen von wissenschaftlichen Reviewverfahren, eingesetzt werden kann. Weitere Forschungsarbeiten eröffnen sich in der wissenschaftlich begleiteten Anwendung des vorgestellten Vorgehensmodells. Die Entwicklung eines eigenen Reifegradmodells zum IT Performance Measurement bildet dabei den Rahmen für die Anwendung des hier hergeleiteten Vorgehens. Dabei wird das Ziel verfolgt, dem IT-Management ein Werkzeug zur strukturierten Fortentwicklung des Einsatzes von Business Intelligence (BI) an die Hand zu geben. Es soll Reifegrade in der Nutzung von BI-Systemen zur Umsetzung des IT Performance Managements beschreiben und damit eine Lücke im Spektrum bestehender Reifegradmodelle schließen, welche bisher schwerpunktmäßig entweder dem IT-Management (z. B. [16, 18]) oder dem Einsatz von BI-Systemen (z. B. [1]) gewidmet sind. Als ein weiteres Anwendungsgebiet des Vorgehensmodells soll die als hybride Wertschöpfung bezeichnete Integration von Produktion und Dienstleistung adressiert werden. Die Bewertungsdimensionen können dabei unterschiedliche Bereiche der Integration von Produzenten und Dienstleistern berücksichtigen, angefangen bei der Unternehmenskultur, über die Integration der Prozesse, bis hin 543 zu abgestimmten Controllingsystemen. Aus Sicht der Informationssysteme wäre über das Reifegradmodell z. B. zu untersuchen, in welchem Umfang die involvierten Akteure Informationen austauschen, um ihre Leistungsbeiträge aufeinander abzustimmen. 6. Danksagung Dieser Beitrag wurde durch die Förderung des BMBF Projektes „FlexNet“ (Flexible Informationssystemarchitekturen für hybride Wertschöpfungsnetzwerke; Förderkennzeichen 01FD0629) im Rahmen des Förderprogramms „Innovationen mit Dienstleistungen“ ermöglicht. Wir danken an dieser Stelle dem Projektträger Deutsches Zentrum für Luft- und Raumfahrt (DLR) für die Unterstützung. 7. Literaturhinweise [1] CHAMONI, P., GLUCHOWSKI, P., Integrationstrends bei Business-Intelligence-Systemen, in: Wirtschaftsinformatik 46 (2004), S. 119-128. [2] CMMI PRODUCT TEAM, CMMI for Development. Abgerufen am 2008-07-30 unter: http://www.sei.cmu.edu/pub/documents/06.reports/pdf/06tr008.pdf. [3] COVEY, R. W., HIXON, D. J., The Creation and Use of an Analysis Capability Maturity Model (ACMM). Abgerufen am 2008-07-30 unter: http://stinet.dtic.mil/cgibin/GetTRDoc?AD=ADA436426&Location=U2&doc=GetTRDoc.pdf. [4] DE BRUIN, T., ROSEMANN, M., Using the Delphi Technique to Identify BPM Capability Areas, in: Proceedings of the 18th Australiasian Conference on Information Systems (ACIS), 2007. [5] DE BRUIN, T., ROSEMANN, M., FREEZE, R., KULKARNI, U., Understanding the Main Phases of Developing a Maturity Assessment Model, in: Proceedings of the 16th Australasian Conference on Information Systems (ACIS), 2005. [6] HEVNER, A. R., MARCH, S. T., PARK, J., RAM, S., Design Science in Information Systems Research, in: MIS Quaterly 28 (2004), S. 75-105. [7] HUMPHREY, W. S., Managing the Software Process. Addison-Wesley, Reading 1989. [8] IT GOVERNANCE INSTITUTE, CobiT 4.1. The IT Governance Institute 2007. [9] LEE, J., LEE, D., SUNGWON, K., An Overview of the Business Process Maturity Model (BPMM), in: Proceedings of the International Workshop on Process Aware Information Systems (PAIS 2007), 2007, S. 384-395. [10] MARCH, S. T., SMITH, G., Design and natural science research on information technology, in: Decision Support Systems 15 (1995), S. 251-266. [11] MARSHALL, S., E-Learning Maturity Model. Abgerufen am 2008-07-22 unter: http://www.utdc.vuw.ac.nz/research/emm/index.shtml. [12] NOLAN, R. L., Managing the Crisis in data Processing, in: Harvard Business Review 57 (1979), S. 115-126. [13] PAULK, M., The Evolution of the SEI's Capability Maturity Model for Software, in: Software Process - Improvement and Practice (1995), S. 3-15. [14] PAULK, M., CURTIS, B., CHRISSIS, M., WEBER, C., Capability Maturity Model for Software, Version 1.1. Abgerufen am 2008-07-23 unter: http://www.sei.cmu.edu/pub/documents/93.reports/pdf/tr24.93.pdf. [15] PEFFERS, K., TUUNANEN, T., ROTHENBURGER, M. A., CHATTERJEE, S., A Design Science Research Methodology for Information Systems Research, in: Journal of Management Information Systems 24 (2007), S. 45-77. [16] RENKEN, J., Developing an IS/ICT Management Capability Maturity Framework, in: Proceedings of the Research Conference of the South African Institute for Computer Scientists and Information Technologists (SAICSIT), 2004, S. 53-62. [17] ROSEMANN, M., DE BRUIN, T., POWER, B., A Model to Measure Business Process Management Maturity and Improve Performance, in: J. Jeston and J. Nelis, (eds.), Business Process Management, Butterworth-Heinemann 2006 [18] VAN GREMBERGEN, W., SAULL, R., Aligning Business and Information Technology through the Balanced Scorecard at a Major Canadian Financial Group. Its Status Measured with an IT BSC Maturity Model, in: Proceedings of the 34th Hawaii International Conference on System Sciences (HICSS), 2001. 544 DETERMINING THE IMPACT OF BUSINESS STRATEGIES USING PRINCIPLES FROM GOAL-ORIENTED MEASUREMENT Victor Basili1,2, Jens Heidrich3, Mikael Lindvall1, Jürgen Münch3, Carolyn Seaman1,4, Myrna Regardie1, Adam Trendowicz3 Abstract In practice, the success or failure of business strategies is often determined by management as a gut feeling without taking into account quantitative information. If data is collected, it is often unclear how the data contributes to higher-level goals of the organization. GQM+Strategies® provides mechanisms for explicitly linking measurement goals to higher-level goals, and also to goals and strategies at the level of the entire business. It is based on experiences with software-related organizations, but is intended to be applicable in all kinds of businesses. This article gives an overview of the basic concepts and presents a practical case. 1. Introduction Determining the impact of business strategies is crucial for effective decision making within an organization. Different goals and corresponding strategies exist at different levels of the overall business. In practice, these goals and strategies are not aligned and their success or failure is often determined by management as a gut feeling without taking into account quantitative information. For instance, in a software organization, engineers are frequently faced with apparently unrealistic goals related to software development. If the next version of a software product needs to be released to the market in half of the originally planned time, the software development schedule is simply cut in half. There is rarely a discussion of trade-offs or other options for such decisions in order to avoid deviations of budget and schedule. Goals and strategies need to be defined explicitly and derived from high-level business goals in a systematic and transparent way. Moreover, underlying assumptions and environmental factors are often not documented, which makes it hard to determine the reasons for failed strategies. Furthermore, if measurement data is collected on the project level, it is often unclear how the activities performed there and the data collected contribute to higher-level goals of the organization. For instance, time and money are spent on software initiatives that do, in fact, not contribute to the bottom line of the business. In practice, an approach to measurement that explicitly links high-level business goals and measurement data is needed. Building an effective measurement program is a challenging task in itself. It involves observation, expe1 Fraunhofer Center for Experimental Software Engineering, Maryland College Park, Maryland 20742, USA University of Maryland, Maryland College Park, Maryland 20742, USA 3 Fraunhofer Institute for Experimental Software Engineering, Fraunhofer-Platz 1, 67663 Kaiserslautern, Germany 4 University of Maryland, Baltimore County, Maryland 21250, USA 2 545 rience facilitation, collaboration, decision making, analysis, and synthesis regarding goals, context factors, and assumptions. Furthermore, it assumes an organizational structure that sustains the process and learns. Most organizations fall short of putting together a successful program. This article presents the GQM+Strategies® approach [2] for explicitly linking measurement goals to higher-level goals for the organization, and also to goals and strategies at the level of the overall business. Even though the development of the approach was focused on software-related organizations, the basic concepts can be generalized to set up an organization-wide measurement program for controlling business strategies. GQM+Strategies® is based on the familiar Goal Question Metric paradigm [1], which is in widespread use today for creating and establishing measurement programs throughout the software industry. This extension to GQM adds the capability to create measurement programs that ensure alignment between business goals and strategies, software-specific goals, and measurement goals. Although GQM has served the software industry well for several decades, it never provided explicit support for integrating its software measurement model with elements of the larger organization, such as higher-level business goals and strategies. Section 2 gives a detailed step-by-step description of how to systematically connect goals on an organization’s different levels of abstraction using the GQM+Strategies® approach. Section 3 presents an example case of how to apply the approach, Section 4 briefly illustrates practical benefits, Section 5 addresses related work, and Section 6 presents final conclusions and future work. 2. Basics of the GQM+Strategies® Approach Based on the authors’ experience with establishing measurement programs, we see three essential factors for putting together an effective and sustainable measurement program. The first factor is to define the right goals. This includes linking goals at all logical levels of the organization (e.g., business, system, software, and project), using corporate goals to generate lower-level goals, and inheriting lower-level goals from upper-level goals. Moreover, it is important to identify the context and temporal aspects of a goal, such as what are we focusing on, or what shall be achieved and by when. The second factor is to collect the right data; that is, quantifying and interpreting the goals at all levels, justifying what data is collected at each level and why, maximizing the benefits, as well as minimizing data collection and data analysis costs. This also includes taking maximum advantage of already existing data (instead of defining everything from scratch in a pure top-down manner). The third factor is to define and sustain the measurement process. This includes creating the right organizational structure, getting feedback to projects in a timely fashion, and maintaining commitment within all organizational levels (from top-level management down to project managers). Goal+Strategies Element GQM Graph influences Goal Context/ Assumption realized by a set of Strategy > made measurable through made measurable through Metric Question GQM Goal Metric Question < measures achievement of Metric Interpretation Model influences leads to a set of is part of Goal+Strategies Element GQM Graph Figure 1: Meta-Model Elements for Constructing a GQM+Strategies® Grid 546 The Conceptual Model GQM+Strategies® [2] is an approach for clarifying and harmonizing goals and strategies across all levels of an organization, communicating business goals throughout the whole company, aligning goals with strategies, monitoring the deployment strategy, and obtaining feedback about the success or failure of strategies and business goals. One central component of the GQM+Strategies® approach is the conceptual model: The GQM+Strategies® grid specifies goals and strategies across all levels of an organization including the measurement program needed to monitor and control them. Figure 1 gives an overview of all conceptual elements for constructing a grid. The meta-model allows multiple goal levels and permits deriving multiple strategies for each of these goal levels. A goal may be realized by a set of strategies, which may in turn lead to a sequence of goals. A set of predefined goals and strategies may be defined as part of an (organization-specific) experience base. Selection and adaptation of predefined goals and strategies as well as definition of new goals and strategies is driven by context factors and assumptions. Context factors are environmental variables that represent the organizational environment and affect the kind of models and data that can be used. Assumptions are estimated unknowns that can affect the interpretation of the data. The entire model provides an organization with a mechanism not only for defining measurement consistent with larger, upper-level organizational concerns, but also for interpreting and rolling up the resulting measurement data at each level. At each goal level, measurement plans are defined in order the measure the achievement of the defined goal in combination with the chosen strategy. This includes the definition of GQM measurement goals, the derivation of questions and metrics, as well as the definition of an interpretation model that determines whether the measurement goal has been achieved. A single GQM goal (that measures a GQM+Strategies® element), corresponding questions, metrics and interpretation models are called a GQM graph in the GQM+Strategies® notation. The Grid Derivation Process The GQM+Strategies® grid derivation process [2] consists of a couple of basic tasks that may be instantiated depending on the concrete application scenario. For instance, if you want to start with a software-related goal and want to relate upper-level business goals as well as lower-level project goals to it, you need a different sequence of tasks than if you want to derive the whole grid in a topdown-oriented manner. For simplicity reasons, we present an activity diagram of the top-down process in Figure 2. There are basically two different kinds of processes, which may be performed in parallel. On the left side, there are tasks needed to define goals and related strategies. This process is iterated as long as all organizational levels (for which the measurement program has to be created) are defined. On the right side, there are tasks needed to measure already defined goals and strategies; that is, corresponding measurement goals are defined and questions, metrics, and interpretation models are specified using the GQM approach. This measurement branch can be built up in parallel to breaking down goals and strategies. The latter process consists of the following tasks: • Elicit General Context & Assumptions: Before defining business goals for an organization, the basic motivation needs to be determined and the rationales that lead to defining the goal need to be described. (1) First, context factors of the organization are defined. This includes characterizing the product or service provided, identifying existing processes, tools, etc., characterizing typical customers, characterizing income sources and business model (e.g., characterizing the factors that influence profitability, contracting vehicles, etc.), characterizing organizational interfaces (such as levels in the overall organization and levels in the contract chain), and finally, characterizing existing measurement programs and already collected data. (2) Second, underlying assumptions that lead to business goals are documented. For instance, this includes what one believes to be true but has little or no empirical evidence about, as well as assumptions about the technology, market, customers, the organization, or the workforce. 547 • Define Top-Level Goals: (1) First, an initial set of potential high-level goals has to be identified. These goals may be derived from asking some basic questions, such as: What are the organizational principles that you do not want to change, i.e., aspects of the organization you want to keep as is? What are the key elements of the environment (such as transparency, employee satisfaction, controlled risk, learning environment)? Is the organization risk-averse, risk-neutral, or risk-driven? What are your existing business goals? What do you want to happen next? Where do you envisage your organization in 5 or 10 years? How do you want to grow, e.g., new customers, new competencies? How would you define success, e.g., do you want to improve some aspect of the business? (2) Second, once a list of initial goals has been defined, the goals have to be prioritized. This also includes identifying conflicts and other relationships between the goals. (3) Third, once the most important goals have been determined, they need to be formalized using the GQM+Strategies® goal template. The template documents the basic activity that should be performed in order to accomplish the goal, the main (quality) focus of the goal, the object under consideration (e.g., a process or product), the quantification of the goal specified by a magnitude, the timeframe in which the magnitude has to be achieved, the scope, and basic constraints that may limit accomplishing the goal. Furthermore, potential relationships with other (complementary or competing) goals are listed. “Elicit General Context & Assumptions” 1. Gather the general context for your organization 2. Identify general underlying assumptions “Define Top-Level Goals” 1. Identify an initial set of potential high-level goals* 2. Prioritize goals and select most important ones* 3. Formalize selected goals using the goal template* [Top-level GQM+Strategies goal is defined] “Define Goals” 1. Elicit the implications of the chosen strategy with respect to the next level* 2. Identify potential goals (for the chosen strategy)* 3. Select the most promising goals considering feasibility, cost, and benefit* 4. Formalize selected goals using the goal template* “Define GQM Graphs” 1. Define GQM goals for each selected GQM+Strategies goal on the appropriate level* 2. Specify the GQM graph for evaluating the achievement of the goal* 3. Identify relationships between the interpretation models on this level and the ones for the level above, if existing* [Yes] “Make Strategy Decisions” 1. Brainstorm potential strategies for each selected high-level goal* 2. Decide on a strategy* Can one or more strategy be refined (by another goal level)? [No] Are there GQM+Strategies goals defined on the next lower level in the grid? [Yes] [No] * In addition document context and assumptions Figure 2: The GQM+Strategies® Grid Derivation Process • Make Strategy Decisions: (1) First, a list of potential strategies for achieving the business goal needs to be identified (e.g., building a more reliable system that will lead to less customer complaints vs. testing reliability in). (2) Second, the most promising strategy has to be selected considering its cost and benefit, and taking into account context factors and assumptions that naturally restrict the feasibility of potential strategies. • Define Goals: This task is only conducted if one or more strategies could be refined by another goal level. The stop criterion depends on the organization for which the GQM+Strategies® model is built. Usually, the process stops if a concrete set of steps has been derived that may easily be implemented in the organization (e.g., on the project level). (1) First, the implications of the chosen upper-level strategies (e.g., strategies of the business level) with respect to lower-level 548 goals (e.g., software development-specific goals) have to be elicited. For instance, if a chosen strategy is to test in reliability, the software test processes must be examined. (2) Second, potential lower-level goals need to be identified based on this analysis (e.g., decrease customer reported defects by improving system test effectiveness). (3) Third, the most promising goal with respect to feasibility, cost, and benefit is selected. Again, context factors and assumptions help to define the right selection criteria. (4) Fourth, the lower-level goal needs to be formalized using the goal template as described above (see “Define Top-Level Goals”). Creating the measurement branch of the grid for each goal and strategy level is not an isolated task; that is, the metrics derived across different levels of the GQM+Strategies® model will usually overlap. Moreover, an interpretation model for a higher-level goal may only be defined completely if the lower-level pieces have already been modeled. Define GQM Graphs: A measurement plan has to be developed for evaluating the achievement of goals and strategies. (1) First, potential measurement goals need to be identified. The GQM goal template [2] (object, purpose, quality aspect, viewpoint, and context) is used for formalizing the measurement goal. (2) Second, GQM questions and metrics as well as criteria for evaluating the achievement of the measurement goals are determined and interpretation models are defined for aggregating and interpreting the collected measurement data. With that, the GQM+Strategies® model provides guidance not just for planning, but also for analyzing and rolling up the resulting data for the decision makers and helps to make the right decisions for achieving the designated goal and evaluating the implementation strategy. (3) Third, relationships between the interpretation models on this level and the one above need to be identified. The reason for that is that using the information from the current level may help to extend and improve the upper-level interpretation models significantly. 3. Applying the GQM+Strategies® Approach The example case presented in this section is a hypothetical project, built upon real project experience gained over many years of industrial work. GQM+Strategies® was applied post mortem in order to evaluate the applicability of the conceptual model. In the following, the activities that were performed in order to systematically define the measurement program according to the GQM+Strategies® method are described. The two branches of the grid derivation process presented in the previous section are merged into a continuous series of tasks. Elicit General Context & Assumptions: A company called Company X creates web applications in the financial area. Their most famous product is called Splash and Company X is the market leader for this class of product. The basic motivation for defining a measurement program is that the market for this class of product is becoming highly competitive and there is a need to safeguard the place in the market. Table 1: Formalized Goal on the Business Level Activity Focus Object Magnitude Timeframe Scope Constraints Relations Increase Customer satisfaction Product “Splash” 10% reduction in number of customer complaints 12 weeks after release Web Products Division, Splash Project Manager Splash price and functionality Can conflict with development cost goals, schedule goals, … 549 Define Top-Level Goals: A way to safeguard the place in the market is to keep existing customers by generating customer loyalty. This can be achieved by improving customer satisfaction with the next product. Other potential high-level goals were not defined in our case. However, the organization could also think about decreasing time to market in order to speed up delivery of its product to the customer. The business goal “increase customer satisfaction for the next product” is selected as the only goal and is formalized according to the goal template. The results can be seen in Table 1. Define Top-Level GQM Graphs: The GQM goal for evaluating the defined business goal is as follows: Analyze customer complaints trend for Splash for the purpose of evaluation with respect to a 10% improvement over history from the point of view of quality management in the context of the Web Products Division of Company X. Questions and metrics are derived and an interpretation model for evaluating the achievement of the goal is defined: If the ratio between customer complaints for Splash and a historical baseline over a 12-week time period is less than or equal to 0.9, the business goal is achieved. Make Strategy Decisions (on Business Level): An analysis revealed that many customer complaints are due to product reliability problems. Brainstorming potential strategies resulted in the following alternatives: (S1) build reliability in (e.g., implement fewer defects) or (S2) test reliability in (e.g., remove more defects). Company X has only little control over the development process and only a limited budget for process improvement. Thus, they decide to “test reliability in”. Define Goals (on Software Level): First, we elicit the implications of the chosen strategy with respect to software development. In order to test reliability in, the software test processes must be examined. Potential software goals include decreasing customer-reported defects by improving (G1) system test effectiveness, (G2) unit test effectiveness, or (G3) acceptance test effectiveness. Company X has discovered a new system test process that seems appropriate for their context. They assume (based on their experience) that they can decrease the total number of customer complaints by 10% by reducing customer-reported software field defects (i.e., those that slip by system test) by 20%. So the most promising goal is to decrease customer-reported defects by improving system test effectiveness. A formalization of the goal is presented in Table 2. Table 2: Formalized Goal on the Software Level Activity Focus Object Magnitude Timeframe Scope Constraints Relations Decrease Customer-reported software defects System test process for Splash 20% 12 weeks after release (might check every week) Web Products Division, Splash Software Manager Development cost and functionality Can conflict with development cost goals, schedule goals, … Define GQM Graphs (on Software Level): The corresponding GQM goal is to analyze the trend in unique customer complaints that are due to software defects for the purpose of evaluation with respect to a 20% reduction when compared to prior projects from the point of view of quality management in the context of the Web Products Division of Company X. The goal is achieved if the number of unique customer complaints that are due to software defects of Splash compared to the average number of complaints of a set of baseline products is less than or equal to 0.8. This new information has some implications for the interpretation model of the business goal. For example, if the number of customer complaints is reduced by 10% or more, then we have achieved our business goal, else – if the number of unique customer complaints due to defects is reduced by 20% – the assumption may be wrong. It is necessary to consider that perhaps the unique customer complaints 550 due to defects are not a major problem relative to other customer complaints. It is then necessary to identify the major sources of complaints and redefine the strategy or reconsider the business goal. Make Strategy Decisions (on Software Level): Because there is a new system test process that seems appropriate for Company X, the one and only strategy is to introduce the new system test process. Table 3: Formalized Goal on the Project Level Activity Focus Object Magnitude Timeframe Scope Constraints Relations Decrease Defect slippage New system test process for Splash 20% 12 weeks after release (might check every week) Web Products Division, Splash Software Manager Development cost and functionality Can conflict with development cost goals, schedule goals, … Define Goals (on Project Level): Company X assumes that reducing slippage by 20% reduces reported defects by 20%. They already collect defect slippage data and have created a corresponding baseline based on the assumption that the projects that form the baseline are relevant to the current Splash development project. The goal is to apply the new system test method in order to see if it reduces defect slippage by at least 20% and generates the necessary improvement to customer complaints. The goal is formalized in Table 3. Business Level Goal+Strategies Elements Goal: Increase customer satisfaction by 10% Context Assumptions C1: Highly competitive market for class of products A1: Improving customer satisfaction will increase customer loyalty C2: Little control over development process C3: Limited budget Project Level Software Level Strategy: Test reliability in Goal: Improve system test effectiveness by 20% A3: Many complaints are due to product reliability A4: Reducing defects by 20% reduces complaints by 10% C4: New system test process available Strategy: Introduce new system test process Goal: Reduce defect slippage by 20% A2: Satisfaction can be measured by # of complaints A5: Reducing slippage by 20% reduces reported defects by 20% C5: Defect slippage data available on past projects A6: Baseline projects relevant Strategy: Establish baseline, evaluate new project, analyze improvement Figure 3: Summary of Context Factors and Assumptions Define GQM Graphs (on Project Level): The GQM goal for evaluating the goal on the project level is to analyze the system test process for Splash for the purpose of evaluation with respect to 20% 551 defect slippage compared to prior projects from the point of view of quality management in the context of the Web Products Division of Company X. The goal is achieved if the ratio of faults found in system test to that found after system test on the Splash project compared to the same average ratio in the set of baseline projects is greater than or equal to 1.2. If the value is between 1 and 1.2, then the new method is better than history but not good enough to achieve the goal. The relationships between this interpretation model and the one for the software goal are as follows: If the customer-reported defects are reduced by 20%, then we have achieved our software goal, else – if defect slippage from system test is reduced by at least 20% – one of the previous assumptions is wrong (either reducing slippage by 20% does not reduce reported defects by 20% or the projects that form the baseline are not relevant to the current project). There are more GQM goals (not discussed in this example) on this level that could be followed depending on whether historical data on defect slippage exists. However, because of space limitations, we skip the remaining goals. A comprehensive overview of the goals, strategies, and related context factors and assumptions that helped in going from one level to the other can be found in Figure 3. 4. Practical Benefits In practice, multiple goals on the same level of abstraction or on different levels of the GQM+Strategies® model will most likely be interrelated with each other. The most obvious relationship (documented in the conceptual model) is a hierarchical structure consisting of a top goal and sub-goals connected via strategies. For a certain goal, a set of complementary goals may exist, which provide additional support for the current goal. On the other hand, a set of competing goals may also exist that conflict with the current goal, whereas other goals may be totally unaffected by the current goal. There are several approaches available in practice and research to resolve goal conflicts (e.g., the Model-Clash Spiderweb diagrams [4]). However, sometimes it is hard to determine whether a strategy selected for one goal is in conflict with another goal. For instance, if our goal is to “increase product quality” and the derived strategy is “find more defects”, then the strategy may have various effects on a goal like “increase profits”. On the one hand, costs are increased by putting more effort into finding defects. On the other hand, costs may also be decreased, because rework effort may be reduced. GQM+Strategies® allows us to explicitly model potential conflicts and also model assumptions we made in order to overcome potential conflicts. If a goal could not be achieved, interpretation models help to determine which parts of the model need to be changed and how to measure the effect of these changes. The GQM+Strategies® approach makes high-level goals, strategies, and related measurement goals explicit across all levels of an organization. The entire model provides an organization with a mechanism not only for defining software measurement consistent with larger, upper-level organizational concerns, but also for interpreting and rolling up the resulting measurement data at each level. However, in order to implement a sustainable measurement program, further activities have to be performed (which are part of the overall approach, but beyond the scope of this paper), including (a) measurement instrumentation, (b) data collection and validation, (c) data analysis, visualization, and interpretation, and (d) the practical introduction and management of a measurement program. 5. Related Work CoBIT (Control Objectives for Information and related Technology) [6] is a framework that focuses on controlling IT. CoBIT was initially developed by the Information Systems Audit and Control Association (ISACA) and has been developed by the IT Governance Institute since 2000. CoBIT distinguishes between four different levels of goals: business goals, IT goals, process goals, and activity goals. The list of goals provided represents the consensus of experts. CoBIT provides metrics and models to measure their achievement. The CoBIT process model subdivides IT into four 552 domains and 34 processes in line with the responsibility areas of plan, build, run, and monitor IT processes. It has a clear focus on IT services, provides an easy structure for documenting relationships between and among goals and metrics, and summarizes best practices for IT governance. However, it provides only a fixed set of goals, has limited tailoring support, and makes assumptions about the process (reference model) used. Moreover, it provides no means for documenting underlying context information and assumptions that would help to tailor the model to specific organizations. Practical Software and Systems Measurement (PSM) [8] defines an information-driven measurement process that guides project managers in selecting, collecting, defining, analyzing, and reporting specific software issues. PSM represents best practices used by measurement experts. It is sponsored by the Department of Defense and the US Army. It focuses on measurement on the project level and defines seven common areas including schedule, cost, size, product quality, performance, effectiveness, and customer satisfaction. The areas may be extended with respect to specific goals related to a project. The method is tool-supported and comes with a set of predefined goals and metrics that may be tailored to specific needs. It provides support for multiple measurement areas, defines corresponding metrics on the project level, and provides best practices for implementing a measurement program on the project level. However, it does not address measurement on the business level and does not link measurement on the project level to higher-level business goals and strategies. Balanced Scorecard (BSC) [7] is an approach for measuring whether the activities of a company meet its goals with respect to vision and strategy. It was initially developed by Robert S. Kaplan and David P. Norton and is used by decision-makers for controlling organization-wide goals, making use of different dimensions that have to be determined based on the goals and characteristics of an organization. In order to derive goals and document relationships among them, a strategy map is defined, which connects all dimensions by using causal links (also known as BSC stories). Typically, four different dimensions are controlled (learning & growth, internal process, customer, and financial), each including one to two business goals. For each goal of a BSC dimension, corresponding indicators, target values, and initiatives (activities) are defined. BSC helps to make goals on the business level explicit, defines measures for controlling the goals, and sets target values. It helps to define causal chains for strategies in order to achieve business goals. However, depending on the organization, it is hard to formulate goals (no template is provided) and there is no consistent linkage between measurement on the business level and on the project level. Becker and Bostelman [3] address the misalignment between strategy at the organizational level and the project level of software organizations caused by project data that does not address organizational goals and organizational goals that fail because they are not operationalized through processes and metrics at the project level. Buglione and Abran [5] also discuss the misalignment problem, but their work is more of a comparison, rather than a merger, of BSC and GQM. The M3P – Model, Measure, Manage Paradigm [9] – is an extension of the QIP and GQM. M3P embeds GQM as a measurement definition technique within a larger framework that encompasses organizational concerns, but does not allow for explicitly linked goals at different levels of the organization. Six Sigma (6σ) [10] is a set of practices designed to improve manufacturing and business processes and seeks to identify and eliminate the causes of defects. It was first defined by Bill Smith at Motorola in 1986 and can be used for creating new or controlling existing manufacturing or business processes in order to deliver products or services that meet customer needs. Six Sigma asserts that continuous efforts to achieve stable and predictable process results (i.e., to reduce process variation) are of vital importance to business success. It adapts the Plan-Do-Check-Act paradigm for continuous improvement. It utilizes tools and techniques for fixing problems in manufacturing and business processes in a continuous and disciplined fashion and focuses on decision making based 553 on facts and data rather than on assumptions. However, it requires large amounts of reliable measurement data, which, in contrast to manufacturing, are typically not available in the software development domain. The sigma-level is assumed to be the major factor contributing to the fulfillment of customer needs. 6. Summary and Conclusions This paper presented the GQM+Strategies® approach, which provides guidance not just for planning, but also for analyzing and rolling up the resulting data for the decision-makers. The approach helps to make the right decisions for achieving the designated business goals and evaluating the implementation strategy. GQM+Strategies® inherits GQM’s benefit of assuring that the metrics set is as small as possible and that the data collected address the defined organizational objectives. It extends GQM by providing explicit support for linking software measurement goals to organizational business objectives. Considering this linkage is essential for organizational success, as it helps to translate strategic-level objectives into a set of operational software goals and corresponding quantitative project management. It helps to justify software measurement efforts and allows measurement data to contribute to higher-level decisions. GQM+Strategies® provides a systematic way to deal with relationships between different objectives at various organizational levels. Early identification of conflicting objectives may help to prevent failures very early, namely, at the time of defining the organizational strategy. Moreover, a transparent way of specifying and synchronizing objectives at various operational levels supports understanding of the overall business and improves communicating goals and strategies. The GQM+Strategies® development team is currently setting up a set of pilot projects for evaluating the approach in practice. Furthermore, tool support for specifying a GQM+Strategies® grid is under development. 7. Acknowledgements This work was supported in part by the German Federal Ministry of Education and Research (QuaMoCo Project, No. 01IS08023C) and the Stiftung Rheinland-Pfalz für Innovation (Q-VISIT Project). Furthermore, we would like to thank Sonnhild Namingha for reviewing the article. 8. References [1] BASILI, V.R., WEISS, D., A Methodology for Collecting Valid Software Engineering Data, IEEE Transactions on Software Engineering, vol.10 (3): 728-738, November 1984. [2] BASILI, V.R., et al., A., Bridging the Gap Between Business Strategy and Software Development, In: Proceedings of the International Conference on Information Systems (ICIS), December 9-12, 2007, Montréal, Canada. [3] BECKER, S.A., BOSTELMAN, M.L., Aligning Strategic and Project Measurement Systems, IEEE Software, May/June 1999, pp. 46-51. [4] BOEHM, B., PORT, D., AL-SAID, M., Avoiding the Software Model-Clash Spiderweb, Computer, vol. 33, no. 11, pp. 120-122, Nov., 2000. [5] BUGLIONE L., ABRAN A., Balanced Scorecards and GQM: What are the Differences?, In: Proceedings of FESMA-AEMES Software Measurement Conference, October 2000. [6] ISACA, Control Objectives for Information and related Technology (COBIT®), retrieved 04/12/2007, from www.isaca.org. [7] KAPLAN, R, NORTON, D., The Balanced Scorecard - Translating Strategy into Action, Boston: Harvard Business School Press, 1996; ISBN 0-87584-651-3. [8] MCGARRY, J., CARD, D., JONES, C., LAYMAN, B., CLARK, E., DEAN, J., HALL, F., Practical Software Measurement: Objective Information for Decision Makers, Addison-Wesley Professional, 2001. [9] OFFEN, R.J., JEFFEREY, R., Establishing Software Measurement Programs, IEEE Software, Mar/Apr 1997. [10] PYZDEK, T., The Six Sigma Handbook: A Complete Guide for Green Belts, Black Belts and Managers at All Levels. New York, NY: McGraw-Hill Professional, 2003. 554 BENEFITS MANAGEMENT – A LITERATURE REVIEW AND ELEMENTS OF A RESEARCH AGENDA Jessica Braun, Frederik Ahlemann, Gerold Riempp1 Abstract Benefits Management (BM) deals with the systematic planning, realization and controlling of the intended benefits of IS/IT projects, beyond the traditional success measures of staying within project time frame and budget limits. The article describes the results of a BM literature review that seeks to describe the state-of-science as well as to identify fields of promising further research. Our main findings are that, although the pioneering work of Ward et al. on BM have structured the discipline early on and have been adopted as a basis by other researchers, the research on the BM process itself is still scarce and many opportunities for future research remain open. 1. Introduction The success of IS/IT projects (ISTPs) is often measured according to time frame, budget and quality. Independently of success or failure in these three dimensions, many projects fail to deliver the desired benefits [28] and therefore organizations lose large amounts of money [11]. It is unsurprising that there are difficulties in realizing the intended benefits when one takes into account the number, investment volumes and complexity of today’s ISTPs. We argue, however, that ISTP benefits can be achieved with appropriate management [42]. This is especially important, as ISTPs are often means to implement corporate strategies and thus support organizational change and progress. Some researchers even refer to the IT department as an “agent of change in the organization” [4]. In this context, several approaches for achieving and maximizing the anticipated benefits from ISTPs have evolved under the term Benefits Management (BM). One of the first and still the most widely used and cited was the Cranfield Benefits Management Model by Ward, Taylor and Bond, who define BM as “the process of organizing and managing such that potential benefits arising from the use of IT are actually realized”. They identified the following five phases of BM: (1) Identifying and structuring benefits, (2) Planning benefits realization, (3) Executing the benefits realization plan, (4) Evaluating and reviewing results, and (5) Discovering potentials for further benefits [53]. As a first step in our BM research program, we started with an extended literature review. According to Webster and Watson [54] as well as Hart [16], a researcher can, by means of a literature review, distinguish what has already been done from what still needs to be done. Therefore, this research paper has two objectives: First, to give an overview of existing research 1 Institute of Research on Information Systems, European Business School, Rheingaustraße 1, 65375 Oestrich Winkel 555 that addresses both, BM in general and each of its five phases; and second, to develop a research agenda for future research activities in this area. The following section presents the methodology of our literature review as well as a brief descriptive overview of the results. In section 3, we discuss the relevant literature and suggest further research. We conclude with a summary, limitations and an outlook to upcoming research activities. 2. Methodology of the Literature Review and Descriptive Results A literature review [14] is a stand-alone research methodology with the objective to “critique, analyze, and extend existing literature […] in an attempt to build new groundwork” [38]. Various review methods exist, ranging from purely qualitative (e.g. narrative review) to purely quantitative (e.g. meta-analysis) [23]. The methodology for our literature review is based on the concept-centric approach by Webster and Watson [54] and can be classified as a qualitative review. Thereby, concepts instead of authors determine the organizing framework. We selected articles that either deal with BM in general [53] or with one of the above described 5 phases – from a theoretical as well as from an empirical perspective. Phase 4 and phase 5 of the BM process model are thereby considered as one concept. The identification of relevant articles followed a four-stage literature selection process: First, we selected the sources to be considered in the review (Stage 1). Secondly, the time frame of the research papers to be considered was narrowed down (Stage 2), which was followed by a manual search within such sources and such time frame (Stage 3). Finally, and in order to be complete, papers were selected, which are cited in the research papers identified in Stage 3 but are not published in the source and/or time frame selection (Stage 4) [54]. The source selection was accomplished based on three widely respected rankings that consider a broad range of different IS journals: (1) Wissenschaftliche Kommission Wirtschaftsinformatik (WKWI), (2) Association for Information Systems (AIS), (3) VHB-Jourqual. We then selected the top 15 rated journals from each of these three rankings, which led to a total of 45 journals, removed 19 duplicates and excluded 12 journals that focus mainly on technological research issues. Thirdly, one additional journal was included as a source for our review that was not ranked in the top 15 but which had recently published papers specifically dealing with BM. Additionally, we added the proceedings of 7 important IS conferences to the sources in order to allow for very recent research to be considered. The following table gives an overview of the sources which were finally chosen for the literature review. Table 1: Selected Journals and Conferences Journals Conferences CACM, Decision Sciences, EJIS, HBR, I&M, IS, ISJ, ISR, JMIS, JACM, JAIS, Management Science, MISQ, Project Management Journal, Wirtschaftsinformatik AMCIS, AuCIS, ECIS, HICSS, ICIS, PACIS, Int. Tagung Wirtschaftsinformatik We considered scientific publications from 1990 to 2007. Relevant research published before 1990 is likely cited in more recent articles and was therefore identified in Stage 4 of the literature selection process. The search for relevant papers was then performed manually by scanning the tables of content to make sure that all relevant literature was found. By contrast, a stand-alone keyword search tends to produce a lot more literature to screen, and many of these publications are not relevant for our research. Finally, in the “go backward” stage suggested by Webster and Watson [54], we browsed the bibliographies of key articles that we classified as highly relevant to spot articles that were not yet included in the selection. We then read and analyzed the selected 556 articles, the results of which shall be described in the following chapter. In total, we identified 74 articles as highly relevant – 60 journal articles and 14 conference papers. As indicated in Table 2, the proportion of articles dealing with BM is smaller than the proportion of articles dealing with the first three phases of BM. Table 2: Number of Identified Research Papers According to the Cranfield Benefits Management Model Conferences Journals TOTAL Identifying and structuring benefits Planning benefits realization Executing the benefits realization plan 4 9 13 3 26 29 0 17 17 Evaluating and reviewing results & Identifying potential for further benefits 2 4 6 Entire Benefits Management process TOTAL 5 4 9 14 60 74 Considering the time frame of the published articles, it was obvious that BM as a research discipline is increasingly attracting interest, especially in recent conferences. For instance, three papers were published at the HICSS in 2007 [37, 49, 52], and it can be predicted that more research will be forthcoming year-on-year [15]. The preferred methodology for research on the entire BM process is the survey instrument, which is used within five out of the 9 identified publications. 3. Findings on the State of the Art of Benefits Management The pioneering work of Ward et al. on BM started in the mid 1990s with an empirical study on BM industry practises in the UK [53] and in a recently published textbook, Ward and Daniels [51] give in-depth insights into the main ideas and concepts of BM that have subsequently evolved. Several other researchers have sought to expand the knowledge regarding benefits from ISTPs. In the following sections, we will give an overview of the main concepts that have emerged in academic literature regarding each of the five phases of BM as well as regarding the overall BM process. We will also suggest opportunities for further research. The main references are cited and interested readers may research the appropriate reference articles for further information. 3.1. Identifying and Structuring Benefits Overview of Existing Research: Regarding the first phase of BM, we focus on frameworks and classification schemes that have evolved over the years in an effort to structure the various benefits that IS/IT investments are credited with. Our literature review reveals that many researchers considered benefits to be components of the same underlying topic and, therefore, clusters emerged [44]. The activities of an organization, as suggested in 1965 by Anthony, are used as a basis by many authors. Anthony hereby differentiates between strategic planning, management control, operational control, information handling and financial accounting as the main segments [3]. Especially the three first mentioned segments appear in a number of frameworks classifying IS/IT benefits [19, 34, 45, 46, 55]. Some researchers have proceeded on this knowledge base and have investigated the importance of the benefits. For example, a 1995 study revealed that business redesign, improved information and strategic advantage are most important to the respective respondents. By contrast, the same study reveals benefits like reduced workforce costs, adherence to government regulations and business redesign as most prominent when measured by project budget [26]. There is also support in literature for the simple classification of benefits as tangible or intangible [18]. Tangible benefits can be measured according to an objective quantitative and thus often financial measure. By contrast, intangible benefits can only be judged on a subjective basis; therefore, qualitative measures are used [2, 12, 35]. Regarding any classification activity, very little 557 theoretical work has been done into the process of benefits identification itself compared to the amount of work on benefits classifications schemes. So far, we could only identify one study [8] that analyzes, in detail, how organizations identify the expected benefits. We assume that this process has not been well defined or even established in most organizations yet. Therefore, in the absence of empirical data it seems difficult conduct well-founded research even if the process of benefits identification might have been of interest to the research community. Future Research Opportunities: In summary, two major findings emerge from the above overview. Table 3: Key Findings - Identifying and Structuring Benefits 1. 2. IS researchers have a broad list of benefit classifications schemes to choose from. However, there is no consensus on benefit classification. The choice of a benefits classification scheme is dependent on the characteristics of the ISTP to be implemented. The in-depth exploration of activities that are most and least effective and efficient in facilitating benefits identification as well as an exploration of the skills needed for such activities could therefore form the basis of further research. Another interesting avenue for future research involves methods how to identify the “right” benefits classification from the available ones and the moderating factors. However, in summary, we conclude that the first phase of BM is a rather mature research field. 3.2. Planning Benefits Realization Overview of Existing Research: For the literature review on the second phase of BM, we focused on publications that investigate evaluation methods for IS/IT investments. Several IS/IT evaluation practices evolved over time [19]. Some authors even refer to IS evaluation as “one of the most researched and written about topics in IS research” [6]. One of the most significant distinctions is analytical evaluation versus interpretive evaluation [47]. Regardless of the existence of interpretive evaluation approaches, much of the research available focuses on testing and refining quantitative and therefore analytical methods. One reason for this is the common practice by organizations of merely quantifying the benefits most important for them [26]. However, companies are no longer able to justify IS/IT investments exclusively on the basis of analytical evaluation methods such as return of investment, which can only be considered adequate when dealing solely with cost-avoidance issues [35]. When seeking effectiveness and strategic goals, benefits are often too complex to be captured by financial measures alone [17]. As a result, interpretive methods are enjoying increased interest as they capture benefits in greater variety than the definite language of numbers. Interpretive methods include critical success factors and other subjective, multi-objective, multi-criteria methods [24] as well as balanced scorecard methods [21, 32]. Finally, interpretive approaches also support the postulation that the evaluation of information systems is highly dependent on the process of organizational change that accompanies the introduction of new IS/IT systems [48]. Future Research Opportunities: Two major findings may be drawn from the above discussion of literature regarding the second phase of BM. 558 Table 4: Key Findings - Planning Benefits Realization Evaluation approaches are polarized between analytical (low variety, high language 1. precision) and interpretive (high variety, low language precision) approaches. 2. Interpretive evaluation is enjoying increased interest among practitioners. Suggestions for further research in literature range from the development of a selection framework for evaluation approaches [50] to the identification and definition of key organizational roles needed for evaluation [43]. In order to overcome current deficiencies in this field, we suggest further research on how to combine already existing analytical and interpretive evaluation methods, depending on the characteristics of the ISTP to be implemented. Further research on industry-based and customization-oriented evaluation methods might also be promising. 3.3. Executing the Benefits Realization Plan Overview of Existing Research: Our literature review regarding the third phase of BM mainly focuses on change management issues and the ability of an organization to successfully realize the anticipated benefits. It is apparent that the successful closure of ISTPs remains an enormous challenge [22], and the quality of the implementation process itself has been identified as a critical success factor for such [30, 56]. The term “paradox of IT productivity” evolved in literature in order to describe this dilemma: Even though organizations invest in IS/IT, their inability to change the organization accordingly delays the return on these investments [7]. Organizations and their managers need to understand that even though IS/IT may have been the key enabler within successful projects, the business benefits are ultimately derived from “understanding the business and committing it to change” [13]. In this context, some researchers refer to “value conversion contingencies” [10] and “conversion effectiveness” [55], used for the organization’s ability to transform IS resources to actual benefits. Questions about change and how to manage it have occupied practitioners and researchers in many disciplines for many years: Some IS researches argue strongly to incorporate lessons learned from other fields into ISTP management practices [27], while some researchers seriously investigate the relationship between IS/IT and organizational change [31]. Given the fact that change management is becoming more important, ISTP managers will need to demonstrate and apply change management skills [4, 30, 40]. The development of IS/IT management from a “relatively unimportant service function” to an “important instrument of organizational change” was already revealed over 25 years ago [20]. Despite the growing recognition of the importance of change management, a 2004 study revealed insufficient knowledge on the part of IT professionals, especially within the following areas of change management: individual reaction and response to change, general nature of change, planning of change and the evaluation of change [40]. The reason might be the still common belief within many organizations that technology itself, and not the people, can cause change [30]. Future Research Opportunities: We conclude with two major points from the above depicted review of literature on phase 3 of the BM process. Table 5: Key Findings – Executing the Benefits Realization Plan 1. It is essential to understand and manage change processes more effectively. 2. Many IS/IT specialists and project managers lack change management skills. 559 From our point of view much work remains to uncover which change management skills and methods are most beneficial to which type of ISTP. Using as a basis the roles IS specialists adopt according to Markus and Benjamin’s change agentry model [30], further research could therefore address the suitability of these roles for particular types of ISTPs. This would improve our understanding of change management types as a critical success factor for benefits realization. 3.4. Evaluating and Reviewing Results & Discovering Potentials for Further Benefits Overview of Existing Research: The literature on reviewing and evaluating results as well as discovering potentials for further benefits comprises research on post-project evaluation and research on organizational learning. A post-project evaluation thereby determines the degree of accomplishment of an ISTP and reveals potential for further improvement that will most likely affect the planning of future IS/IT investments in terms of new project proposals or change requests. Also, post-project evaluation enables management to better understand why potential benefits may not have been realized and what actions may therefore prove useful in future projects [10]. Surprisingly, the objectives to carry out a post project review from a practitioner’s point of view seem to differ from the described academic belief: Even though 79 % of organizations surveyed in a 1990 study are performing post-implementation reviews of some kind, their objective of doing so is merely the formalization of the end of the project and not a long-term improvement based on prior experiences [25]. In academic literature, post-project evaluation has also been linked empirically to learning aspects, the second research stream prevalent during our literature review on phase 4 and phase 5 of the BM model. For instance, a 2003 study has identified the commitment to learning as well as open-mindedness as important predictors of post-project evaluations [36]. In order to establish learning based project management, organizations first need to realize that each project needs to produce two outputs: (1) The product/service itself, and (2) an assessment of what was learned during the project [9]. The latter also includes an assessment of qualitative lessons learned. The four types of knowledge important to the success of ISTPs are: (1) process, (2) domain, (3) institutional, and (4) cultural [41]. Also, frameworks exist that integrate knowledgebased risks in ISTPs [41]. Future Research Opportunities: Two major points emerge from the literature review. Table 6: Key Findings – Evaluating and Reviewing Results & Discovering Potentials for Further Benefits 1. 2. Literature on evaluating and reviewing ISTPs subsequent to project completion and on discovering potentials for further benefits is limited. Although post-project review is recognized as important in practice, it is seldom carried out or carried out properly. Therefore, we suggest for further research to shed light on the question how to establish continuous learning and overall improvement on benefits realization based on post-project reviews. Developing industry-based and customization-oriented measurement systems thereby forms a challenge. These measures should go beyond budget adherence and be consistent with the measures used for the ex-ante project evaluation. Also, research on how to establish the active use of wellknown documentation methods in such a way that is unbureaucratic yet serves as advantageous input for further ISTPs is considered promising. 3.5. Entire Benefits Management Process Overview of Existing Research: Comparably little literature exists on the overall topic of BM beyond the works of Ward, Taylor and Bond, who discovered that “very few organizations have a complete or comprehensive management process to ensure the proposed benefits from IS/IT 560 investments are actually realized” [53]. In 2007, the result of further research extending the 1996 study was presented, and although the adoption of benefits management had increased from 12% to 25% among participating organizations, most organizations still have a need for further improvement [52]. When differentiating between organizations that are more successful in terms of benefits delivery and those that are less successful, Ward, De Hertogh and Viaene identified five primary differentiating practices: (1) Transfer of lessons learned, (2) Evaluation and review of organizational change, (3) Development of benefit delivery plans, (4) Evaluation and review of benefit delivery plans, and (5) development of organizational change plans [52]. Academics have already noticed the practical problem of organizations’ inability to manage benefits; an increase in academic BM literature is proof for this [1, 33, 37, 49]. Thus far, the available BM literature has examined the following topics: critical issues in order to facilitate the adoption of BM practices in municipalities [37], the relationship between BM and strategic alignment on the success of IT outsourcing [49], the process of BM itself [5], the BM practices in the construction industry [29], and factors that will ensure the realization of benefits from IS/IT [11]. Also, additional approaches for BM were published, e.g. the active benefits realization (ABR) that complements an organization’s project management methods and focuses exclusively on benefits realization [42]. Future Research Opportunities: We summarize two key findings from the above discussion. Table 7: Key Findings – Entire Benefits Management Process 1. 2. Although academic publications on BM already emerged in the mid 1990s, the research field can still be considered rather immature. One BM model – the Cranfield process model – has found wide acceptance and forms the basis of most existing literature. In line with some authors we argue in favor of more research, for example “investigating of how the [BM] process can be extended or refined, in combination with project portfolio approaches” [52]. From our point of view, it is equally important to consider the identification of critical success factors for effective benefits management. This would include research on maturity models for BM as well as the assessment of such. Consequently, we see several different directions for further BM research: We expect that the extent of interdisciplinary research will increase as social, technological and process issues merge within the research field of BM. We also know very little about how industry characteristics, organizational characteristics, and project portfolio characteristics moderate BM’s success. We therefore suggest further exploratory research on how BM is carried out in practice, e.g. using case study methodology, which is particularly useful when a research topic is broad and complex [39] as it is the case with BM. 4. Summary, Limitations and Outlook to Forthcoming Research The purpose of this paper has been to provide an overview of existing, available literature that forms the foundational knowledge of BM. We started our paper by describing the research methodology and presented brief descriptive results. Subsequently we analyzed different streams of research dealing with BM in general or with one of its five phases according to the BM process model by Ward, Taylor and Bond [53]. The following figure gives a concluding overview of specific future research opportunities within each phase of BM and also illustrates an overall future research opportunity. Generally, we suggest a focus on research that contributes to a deeper understanding of the benefits management practices. 561 Overall Key Findings 1. The literature review revealed the complexity and multifacetedness of BM. Therefore, researchers need to balance the furtherance of BM research with considering the body of research from additional research streams. 2. There is much descriptive, explanatory and prescriptive research to be done on BM. However, we consider it most important to first develop a deeper understanding on how organizations are conducting BM in practice. Identifying and structuring of benefits Planning benefits realization Executing the benefits realization plan Evaluating and reviewing results & Discovering potentials for further benefits Specific Future Research Opportunity Specific Future Research Opportunity Specific Future Research Opportunity Specific Future Research Opportunity Choosing the right benefits categorization as a mixture of qualitative and quantitative factors Combining analytical and interpretive evaluation methods to measure each benefit as precise as possible Importance of change management skills depending on the anticipated benefits Establishment of continuous learning and improvement based on post project review results Overall Future Research Opportunity What is the state-of-the art of benefits management practices and how are these practices influenced by the IT investment characteristics, external environment and internal context? Figure 1: Overview of Future Research Opportunities regarding BM Limitations of our research are the objectivity of the selection process and completeness of the obtained articles. However, we limited such risks by following a proven course of action of how to conduct such kind of literature review [54]. Based on the findings of this literature review, the next step within our BM research program is to conduct an empirical study based on interviews with IS/IT executives and project managers. The objective thereby is to identify common as well as best practises and to improve the understanding of BM and its contextual factors. On this basis, we are then able to proceed with explanatory as well as prescriptive research on BM. 5. Bibliography [1] AL-TAMEEM, A. A. and WHEELER, F. P., A Process View of Information System Benefits Management and Evaluation, in: Proceedings of the Americas Conference on Information Systems, Long Beach, CA, USA, 2000, pp. 1089-1092. [2] AMADI, A. A. N., Process Redesign as an Intangible Benefit: Its Impact on Information Technology (IT) Investment Decisions, in: Proceedings of the Americas Conference on Information Systems, Long Beach, CA, USA, 2000, pp. 2080-2082. [3] ANTHONY, R. N., Planning and Control Systems: Harvard University Press, Boston, 1965. [4] BEATH, C. M., Supporting the Information Technology Champion, in: MIS Quarterly, 15(3), 1991, pp. 355-372. [5] BENNINGTON, P. and BACCARINI, D., Project Benefits Management in IT Projects - An Australian Perspective, in: Project Management Journal, 35(1), 2004, pp. 20-30. [6] BERNROIDER, E. W. N. and STIX, V., Profile distance method—a multi-attribute decision making approach for information system investments, in: Decision Support Systems, 42(2), 2006, pp. 988-998. [7] BRYNJOLFSSON, E. and HITT, L., M., Beyond the productivity paradox, in: Communications of the ACM, 41(8), 1998, pp. 49-55. [8] CHANGCHIT, C., JOSHI, K. D., and LEDERER, A. L., Process and reality in information systems benefit analysis, in: Information Systems Journal, 8(2), 1998, pp. 145-162. [9] COOPER, K. G., LYNEIS, J. M., and BRYANT, B. J., Learning to learn, from past to future, in: International Journal of Project Management, 20(3), 2002, pp. 213-219. [10] DAVERN, M. J. and KAUFFMAN, R. J., Discovering Potential and Realizing Value from Information Technology Investments, in: Journal of Management Information Systems, 16(4), 2000, pp. 121-143. 562 [11] DHILLON, G., Gaining benefits from IS/IT implementation: Interpretations from case studies, in: International Journal of Information Management, 25(5), 2005, pp. 502-515. [12] DUTTA, A., Putting Numbers on Intangible Benefits, in: Proceedings of the International Conference on Information Systems, Washington, DC, USA, December 12-15, 2004, 2004, pp. 387-398. [13] EARL, M. J., Putting IT in its place: a polemic for the nineties, in: Journal of Information Technology (Routledge, Ltd.), 7(2), 1992, pp. 100-108. [14] FETTKE, P., Eine Untersuchung der Forschungsmethode „Review“ innerhalb der Wirtschaftsinformatik, in: Wirtschaftsinformatik, 48(4), 2006, pp. 257-266. [15] FLAK, L. S., EIKEBROKK, T. R., and DERTZ, W., An Exploratory Approach for Benefits Management in eGovernment: Insights from 48 Norwegian Government Funded Projects, in: Proceedings of the Hawaii International Conference on System Sciences, Waikoloa, Big Island, Hawaii, 2008, pp. 1-10. [16] HART, C., Doing a Literature Review, 1 edition ed. London: Sage Publications Ltd., 1998. [17] HOCHSTRASSER, B., Quality engineering: a new framework applied to justifying and prioritising IT investments, in: European Journal of Information Systems, 2(3), 1993, pp. 211-223. [18] IRANI, Z., Information systems evaluation: navigating through the problem domain, in: Information & Management, 40(1), 2002, pp. 11-24. [19] IRANI, Z. and LOVE, P., Developing a frame of reference for ex-ante IT/IS investment evaluation, in: European Journal of Information Systems, 11(1), 2002, pp. 74-82. [20] IVES, B. and OLSON, M. H., Manager or Technician? The Nature of the Information Systems Manager's Job, in: MIS Quarterly, 5(4), 1981, pp. 49-63. [21] JONEN, A., LINGNAU, V., MÜLLER, J., and MÜLLER, P., Balanced IT-Decision-Card: Ein Instrument für das Investitionscontrolling von IT-Projekten, in: Wirtschaftsinformatik, 46(3), 2004, pp. 196-203. [22] JOSHI, K., A Model of Users' Perspective on Change: The Case of Information Systems Technology Implementation, in: MIS Quarterly, 15(2), 1991, pp. 229-242. [23] KING, W. R. and JUN, H., Understanding the role and methods of meta-analysis in IS research in: Communications of AIS, 2005(16), 2005, pp. 665-686. [24] KLECUN, E. and CORNFORD, T., A Critical Approach to Evaluation, in: European Journal of Information Systems, 14(3), 2005, pp. 229-243. [25] KUMAR, K. and SIBLEY, E. H., Post Implementation Evaluation of Computer-Based Information Systems: Current Practices, in: Communications of the ACM, 33(2), 1990, pp. 203-212. [26] LEDERER, A. L. and MIRANI, R., Anticipating the benefits of proposed information systems, in: Journal of Information Technology (Routledge, Ltd.), 10(3), 1995, pp. 159-169. [27] LEGRIS, P. and COLLERETTE, P., A Roadmap for IT Project Implementation: Integrating Stakeholders and Change Management Issues in: Project Management Journal, 37(5), 2006, pp. 64-75. [28] LIN, C., GUILFOYLE, A., and STANDING, C., The Attribution of Success and Failure by IS Project Professionals, in: Proceedings of the Australasian Conference on Information Systems, Sydney, Australia, 29 Nov – 2 Dec 2005, 2005, pp. 1-12. [29] LOVE, P. E. D. and IRANI, Z., An exploratory study of information technology evaluation and benefits management practices of SMEs in the construction industry, in: Information & Management, 42(1), 2004, pp. 227-242. [30] MARKUS, M. L. and BENJAMIN, R. I., Change Agentry - the Next IS Frontier, in: MIS Quarterly, 20(4), 1996, pp. 385-407. [31] MARKUS, M. L. and ROBEY, D., Information technology and organizational change: Causal structure in theory and research in: Management Science, 34(5), 1988, pp. 583-598. [32] MARTINSONS, M., DAVIDSON, R., and TSE, D., The balanced scorecard: A foundation for the strategic management of information systems, in: Decision Support Systems, 25(1), 1999, pp. 71-88. [33] MCKAY, J., MARSHALL, P., and SMITH, L., Steps Towards Effective IT Governance: Strategic IT Planning, Evaluation and Benefits Management, in: Proceedings of the Pacific Asia Conference on Information Systems, Adelaide, South Australia, 2003, pp. 956-970. [34] MIRANI, R. and LEDERER, A. L., An Instrument for Assessing the Organizational Benefits of IS Projects, in: Decision Sciences, 29(4), 1998, pp. 803-838. [35] MURPHY, K. E. and SIMON, S. J., Intangible benefits valuation in ERP projects, in: Information Systems Journal, 12(4), 2002, pp. 301-320. [36] NELSON, K., Post-project reviews: An examination of determinants, in: Proceedings of the Americas Conference on Information Systems, Tampa, Florida, USA, 2003, pp. 1361-1369. [37] PÄIVÄRINTA, T., DERTZ, W., and SKIFTENES FLAK, L., Issues of Adopting Benefits Management Practices of IT Investments in Municipalities: A Delphi Study in Norway, in: Proceedings of the Hawaii International Conference on System Sciences, Waikoloa, Big Island, Hawaii, 2007. [38] PALVIA, P., MIDHA, V., and PINJANI, P., Research models in information systems in: Communications of AIS, 2006(17), 2006, pp. 2-33. 563 [39] PARÉ, G., Investigating information systems with positivistic case study research in: Communications of AIS, 2004(13), 2004, pp. 233-264. [40] PARÉ, G. and JUTRAS, J.-F., How good is the IT professional's aptitude in the conceptual understanding of change management? , in: Communications of AIS, 2004(14), 2004, pp. 653-677. [41] REICH, B. H., Managing knowledge and learning in IT projects: A conceptual framework and guidelines for practice, in: Project Management Journal, 38(2), 2007, pp. 5-17. [42] REMENYI, D. and SHERWOOD-SMITH, M., Business benefits from information systems through an active benefits realisation programme, in: International Journal of Project Management, 16(2), 1998, p. 81. [43] SERAFEIMIDIS, V. and SMITHSON, S., Information systems evaluation as an organizational institution experience from a case study, in: Information Systems Journal, 13(3), 2003, pp. 251-274. [44] SETHI, V. and KING, W. R., Development of Measures to Assess the Extent to Which an information Technology Application Provides Competitive Advantage, in: Management Science, 40(12), 1994, pp. 1601-1627. [45] SHANG, S. and SEDDON, P. B., A Comprehensive Framework for Classifying the Benefits of ERP Systems, in: Proceedings of the Americas Conference on Information Systems, Long Beach, California, August 10-13th, 2000, 2000, pp. 1005-1014. [46] SILK, D. J., Managing IS benefits for the 1990s, in: Journal of Information Technology (Routledge, Ltd.), 5(4), 1990, pp. 185-193. [47] STONE, D. N., Assumptions and Values in the Practice of Information Systems Evaluation, in: Journal of Information Systems, 4(3), 1990, pp. 1-17. [48] SYMONS, V. J., A review of information systems evaluation: content, context and process, in: European Journal of Information Systems, 1(3), 1991, pp. 205-212. [49] VAN LIER, J. and DOHMEN, T., Benefits Management and Strategic Alignment in an IT Outsourcing Context, in: Proceedings of the Hawaii International Conference on System Sciences, Waikoloa, Big Island, Hawaii, 2007. [50] WALTER, S. G. and SPITTA, T., Approaches to the Ex-ante Evaluation of Investments into Information Systems, in: Wirtschaftsinformatik, 46(3), 2004, pp. 171-180. [51] WARD, J. and DANIEL, E., Benefits Management: Delivering Value from IS & IT Investments. Chichester, England: John Wiley & Sons Ltd., 2006. [52] WARD, J., DE HERTOGH, S., and VIAENE, S., Managing Benefits from IS/IT Investments: Managing Benefits from IS/IT Investments, in: Proceedings of the Hawaii International Conference on System Sciences, Waikoloa, Big Island, Hawaii, 2007. [53] WARD, J., TAYLOR, P., and BOND, P., Evaluation and realisation of IS/IT benefits: an empirical study of current practice, in: European Journal of Information Systems, 4, 1996, pp. 214-225. [54] WEBSTER, J. and WATSON, R. T., Analyzing the Past to Prepare for the Future: Writing a Literature Review in: MIS Quarterly, 26(2), 2002, pp. xiii-xxiii. [55] WEILL, P., The Relationship Between Investment in Information Technology and Firm Performance: A Study of the Valve Manufacturing Sector, in: Information Systems Research, 3(4), 1992, pp. 307-333. [56] ZMUD, R. W. and COX, J. F., The implementation process: A change approach, in: MIS Quarterly, 3(2), 1979, pp. 35-43. 564 SOFTWARE ALS SERVICE Softwarehersteller bieten im Rahmen von „Software-as-a-Service“-Lösungen die Leistung entweder kompletter eigener Softwarepakete oder integrierter Services von unterschiedlichen Herstellern über das Netz zur dezentralen Nutzung an. Das daraus entstehende „Internet der Dienste“ ermöglicht die Entwicklung innovativer Geschäftsmodelle. So können neue ServiceBroker entstehen, die ihren Kunden Implementierung und Betrieb service-basierter Lösungen auf Basis ihrer Plattformen anbieten. Zudem ergeben sich neue Herausforderungen in Bezug auf die Integration, Bepreisung und Abrechnung von „Software-on-Demand“-Applikationen, bei denen etwa Services dynamisch in Anwendungen eingebunden werden. Ziel des Tracks ist, diese Entwicklungen aus ökonomischer und technischer Sicht zu durchdringen. Leitungsgremium: Peter Buxmann, Technische Universität Darmstadt Roland Holten, Johann Wolfgang Goethe-Universität Frankfurt am Main Wolfgang König, Johann Wolfgang Goethe-Universität Frankfurt am Main (Federführender) Dirk Stelzer, Technische Universität Ilmenau Programmkomitee: Thomas Bachem, Sevenload GmbH Heiner Diefenbach, TDS Neckarsulm Alexander Dreiling, SAP Australien Torsten Eymann, Universität Bayreuth Georg Herzwurm, Universität Stuttgart Stefan Neumann, SAP AG Volker Nissen, Technische Universität Ilmenau WELCHE TREIBER LASSEN SAAS AUCH IN GROSSUNTERNEHMEN ZUM ERFOLG WERDEN? EINE EMPIRISCHE ANALYSE DER SAAS-ADOPTION AUF BASIS DER TRANSAKTIONSKOSTENTHEORIE Alexander Benlian, Thomas Hess1 Kurzfassung Vorliegende Forschungsstudie setzt sich zum Ziel, die Adoptionstreiber von Software-as-a-Service (SaaS) in Großunternehmen zu ergründen. Als on-demand Technologiehype wird SaaS sehr stark von IT-Dienstleistern für den Mittelstand beworben. Es existiert bisher jedoch keine empirische Untersuchung, die Tauglichkeit und Adoptionsfaktoren von SaaS für Großunternehmen analysiert. Basierend auf einem transaktionskostentheoretischen Forschungsmodell wurde der Zusammenhang zwischen Applikationsspezifität, Unsicherheit, Transaktionshäufigkeit sowie der Unternehmensgröße und SaaS-Outsourcing in einer großzahligen empirischen Befragung von Großunternehmen untersucht. Die auf Basis eines PLS-Strukturgleichungsmodells abgeleiteten Ergebnisse bestätigen, dass eher kleinere als größere Unternehmen SaaS aktuell und künftig einsetzen und dass Applikationsspezifität der zentrale Adoptionstreiber für SaaS bei Großunternehmen ist. 1. Einleitung Software-on-Demand-Lösungen sind bereits seit den späten 90ern des letzten Jahrhunderts bekannt und seitdem in vielen Formen und Varianten (wie z.B. als Application Service Providing (ASP) oder Business Service Providing (BSP)) immer wieder aufgetaucht. Der gemeinsame Nenner all dieser Software-Bezugsmodelle besteht darin, dass sie IT-Ressourcen und -Expertise sowie ein umfassendes Portfolio an Software-Applikationen über IP-basierte Netze quasi auf Abruf bereitstellen [11]. Während die Diskussionen in der IT Management-, aber auch wissenschaftlichen Literatur um ASP-basiertes Outsourcing wohl aufgrund des mäßigen Erfolgs in letzter Zeit stark nachgelassen haben, zieht ein weiteres Akronym, SaaS (Software-as-a-Service), verstärkt Aufmerksamkeit auf sich. Das Software-Mietmodell nimmt nicht nur auf der Agenda von CIOs und IT Managern von Anwenderfirmen einen prominenten Platz ein, ihm wird sogar vorausgesagt, dass es einen erheblichen Marktanteil als Software-Bereitstellungsoption erobern wird. In einer Befragung von 850 Anwenderunternehmen gaben 74% sogar an, sich auf die Adoption von SaaSPlattformen aktiv vorzubereiten [6]. Obwohl erhebliche Kritik geäußert wird, SaaS sei „alter Wein in neuen Schläuchen“, halten Befürworter einige Vorteile des Mietmodellansatzes dagegen. Das SaaS-Modell sei durch seine reife und flexible Technologie sowie durch die umfassenden Service-Pakete (z.B. im Bereich 1 Institut für Wirtschaftsinformatik und Neue Medien, Ludwig-Maximilans-Universität München, Ludwigstr. 28, 80539 München 567 CRM) für die Anwenderseite nicht nur attraktiver geworden, sondern klingt ebenso durch die verstärkte Service-Orientierung, die Mandantenfähigkeit und den dadurch ermöglichten höheren Auslastungsgrad von IT-Infrastruktur für Dienstleister überzeugender, da diese insbesondere in den Skaleneffekten ihr Anreizsystem sehen [10]. Traditionellerweise ist die Fokussierung auf Kernkompetenzen, attraktivere Kostenmodelle für Anwender, die größere Flexibilität hinsichtlich des Einsatzes von State-of-the-Art Technologien sowie der Mangel an notwendigen IT-Fähigkeiten und Ressourcen die Intention hinter Software-on-Demand-Modellen [12]. Der Auslagerung von IT Applikationen an Drittanbietern in Form von Internet-Services werden jedoch oftmals Risiken hinsichtlich der Zuverlässigkeit, Sicherheit und Prozessabhängigkeiten entgegengehalten, so dass Antworten aus der klassischen IT-Outsourcing-Literatur zu kurz greifen [11]. Aufgrund dieser teilweise undurchsichtigen und vor allem uneindeutigen Gemengelage an Argumenten haben sowohl Praktiker als auch Wissenschaftler bisher große Schwierigkeiten mit einer klaren Einschätzung über die Adoption des Software-Mietmodells. Insbesondere mangelt es an einer Analyse der Beweggründe für die Adoption von Software-on-Demand in Großunternehmen, die in der Bewerbung des SaaS-Modells im Gegensatz zum Mittelstand in der Vergangenheit bisher eher vernachlässigt wurden. Die vorliegende Forschungsarbeit versucht diese Forschungslücken aufzugreifen und zu adressieren. Ziel ist die theoriebasierte Analyse der Fragestellung, ob SaaS zum einen tendenziell eher von kleineren als von größeren Großunternehmen eingesetzt wird, zum anderen welche Treiber die Adoption von SaaS als Sourcing-Modell in Großunternehmen überhaupt beeinflussen können. Während in der Vergangenheit zahlreiche Theorieansätze (wie z.B. Resource-based, Resource Dependence oder die Principal-Agent Theory) bemüht wurden, um (IT-) Outsourcing-Entscheidungen zu fundieren, hat sich die Transaktionskostentheorie (TKT) als stabilster Erklärungsansatz in diesem Kontext herauskristallisiert [4]. Die konkreten Forschungsfragen dieser Arbeit sind: (1) Wie hängt SaaSbasiertes Outsourcing in Großunternehmen von transaktionsbasierten Faktoren wie Applikationsspezifität, Unsicherheit und Transaktionshäufigkeit ab? (2) Welche Rolle spielt die Unternehmensgröße für Großunternehmen bei der Adoptionsentscheidung von SaaS? Der Aufbau dieses Artikels ist wie folgt: Die nachfolgenden beiden Kapitel leiten das transaktionstheoretisch motivierte Forschungsmodell sowie darauf basierende Hypothesen anhand einer Literaturanalyse ab. Anschließend wird die Forschungsmethodik beschrieben, bevor die Ergebnisse dargestellt und diskutiert werden. Das Aufzeigen künftiger Forschungsstränge sowie praktischer Handlungsempfehlungen rundet die Arbeit schließlich ab. 2. Literaturanalyse und theoretische Fundierung Die Transaktionskostentheorie kann neben der Ressourcen-basierten Theorie als ein wesentlich etablierter Erklärungsansatz zur Analyse von IT-Sourcing angesehen werden [4]. Sie stellt einen zentralen Bestandteil der Neuen Institutionsökonomie dar, die von Ronald Coase geprägt wurde [3], der sich den grundlegenden Fragestellungen angenommen hatte, warum Firmen existieren, welche Faktoren die Konzentration innerhalb eines Marktes beeinflussen und welches Aufgabenspektrum und welche Wertschöpfungstiefe Firmen abdecken. Eine der zentralen Aussagen in Coase’ Arbeit war, dass Firmen und Märkte alternative Organisations- bzw. Koordinationsformen seien, die sich bei der Verrichtung der analysierten betriebswirtschaftlichen Aufgaben in der Höhe der Transaktionskosten unterscheiden [3]. Auf Basis dieser theoretischen Vorüberlegungen lässt sich anhand des Transaktionskostenansatzes die Existenz unterschiedlicher Organisationsformen (d.h., Märkte, Bürokratien oder auch Netzwerke) darüber erklären, wie effizient (d.h. im Sinne der Höhe der Transaktionskosten) jede einzelne Organisationsform Austauschbeziehungen zwischen unterschiedlichen Parteien koordiniert. Im Bereich der IS-Forschung wurde die Transaktionskostentheorie insbesondere im Zusammenhang mit der Fragestellung des IT-Outsourcing verwendet [4]. Aus einer kürzlich durchgeführten Inhaltsanalyse zum Stand der Forschung im Bereich des IT-Outsourcing resultierte 568 das Ergebnis, dass acht Dimensionen in diesem Kontext untersucht werden [18]: Vertragsgestaltung, Kultur, Entscheidungsverhalten, Umweltfaktoren, Organisationsformen, Unternehmenserfolg, Beziehungsverhältnis und Strategie. Bezug nehmend auf das Entscheidungsverhalten im IT-Outsourcing, das auch der vorliegende Beitrag adressieren möchte, entstanden in den letzten Jahren zahlreiche Studien, die von der Transaktionskostentheorie motiviert wurden. Aubert et al. verwendeten zum Beispiel ein Transaktionskostenmodell, in dem der Zusammenhang zwischen Kapitalspezifität, Unsicherheit und geschäftsbezogener bzw. technischer Fähigkeiten mit dem Grad des IT-Outsourcing untersucht wurde [1]. Dibbern et al. konzentrierten sich auf die Wirkungen der Spezifität des Humankapitals auf das SourcingVerhalten bezüglich Applikations-Dienstleistungen [5], während Loh ein integriertes multitheoretisches Governance-Modell des IT-Outsourcing entwickelte, das sowohl die Transaktionskosten- als auch die Agententheorie umfasste [13]. Allen drei Studien war gemein, dass sie eine konsistente empirische Unterstützung der Transaktionskostentheorie zur Erklärung der untersuchten Zusammenhänge aufwiesen. Verengt man den Blickwinkel auf on-demand basierte Auslagerungsformen, stellt man fest, dass die IT-Outsourcing Literatur nur ansatzweise Antworten bereithält. Auf der einen Seite existiert eine Anzahl an Forschungsstudien, die Definitionen oder Klassifikationen vornehmen und die spezifischen Eigenschaften von Software-on-Demand explorieren [17]. Auf der anderen Seite beschränken sich empirische Beiträge zu den Determinanten der Adoption von Software-onDemand zumeist auf einige wenige Fallstudien und vernachlässigen hierbei das wissenschaftliche Gebot der Allgemeingültigkeit [11]. Einigen wenigen Arbeiten in diesem Themenspektrum ist schließlich anzulasten, dass sie nur vereinzelte Aspekte der Adoption von Software-on-Demand in jeweils nur einem Land oder nur einer Industrie untersuchen [15]. Zusammenfassend lässt sich konstatieren, dass die aktuelle IS Literatur nur sehr spärlich großzahlig-empirische Ergebnisse zur Analyse des Entscheidungsverhaltens gegenüber on-demand basierten IT Sourcing-Modellen bereithält. Basierend auf diesem Ergebnis ist es das Ziel des vorliegenden Beitrags, diese Forschungslücke zu adressieren und die transaktionstheoretisch motivierten Faktoren auf ihren Einfluss auf SaaS zu untersuchen. 3. Forschungsmodell und Hypothesen Motiviert durch die transaktionstheoretischen Grundzusammenhänge wurde ein Forschungsmodell entwickelt, welches die drei TKT-Faktoren der (Applikations-)Spezifität, Unsicherheit und Transaktionshäufigkeit als auch die zu erklärende Variable „SaaS-basiertes Outsourcing“ umfasst (siehe Abbildung 1). TKT-basierte Konstrukte ApplikationsSpezifität Unsicherheit H1(-) H2(-) SaaSbasiertes Outsourcing H4(-) H3(-) Transaktionshäufigkeit Unternehmensgröße Abbildung 1. Transaktionskostentheoretisches Forschungsmodell zu SaaS-basiertem Outsourcing 569 Ferner wurde als Kontrollvariable die Unternehmensgröße mit in den Bezugsrahmen aufgenommen, um potentielle Größeneffekte zu untersuchen. Nachfolgend sollen die Hypothesen über den Zusammenhang der TKT-Faktoren und der Unternehmensgröße mit SaaS-basiertem Outsourcing abgeleitet werden. 3.1. Applikationsspezifität und SaaS-basiertes Outsourcing Traditionellerweise wird im Kontext der Transaktionskostenanalyse dargelegt, dass Transaktionen mit hoher Kapitalspezifität (d.h. Kapitalinvestitionen, wie z.B. Maschinen oder IT-Systeme) kostengünstiger innerhalb des Unternehmens organisiert werden, während unspezifische Transaktionen effizienter von Drittanbietern angeboten werden können [19]. Die Erklärung, die die Transaktionskostentheorie diesbezüglich bereithält, ist, dass eine hohe Spezifität von Maschinen bzw. IT-Systemen einen hohen Grad an Anpassung an die unternehmensspezifischen Verhältnisse bedeutet. Eine Übertragung hoch spezifischer Maschinen bzw. IT-Systeme auf andere Einsatzszenarien würde deshalb hohe Anpassungs- bzw. Übertragungskosten nach sich ziehen. Eine große Anzahl von Forschungsstudien im Bereich IT-Outsourcing haben die Spezifität von Anwendungssystemen als Erklärungsfaktor mit uneinheitlichen Ergebnissen einsetzen können. Während Nam et al. [14] generell keinen Zusammenhang zwischen der Applikationsspezifität und IT-Outsourcing entdecken konnten, haben Aubert et al. [1] nur inkonsistente Ergebnisse ermittelt. Am anderen Ende des Spektrums konnten Dibbern et al. aufzeigen, dass eine unternehmensinterne Bereitstellung von Softwaredienstleistungen kosteneffizienter und damit vorteilhafter ist, wenn die Spezifität des Humankapitals sehr hoch ist [4]. Im Kontext von SaaS-basiertem Outsourcing lässt sich die Applikationspezifität anhand des Grades der Anpassbarkeit (d.h. Customization), Integrierbarkeit und Modularisierbarkeit vor bzw. in einer Outsourcing-Beziehung ablesen. Basierend auf den bisherigen theoretischen Vorarbeiten lässt sich argumen-tieren, dass je höher die Spezifität eines Applikationstyps ist, desto geringer wird der Outsourcing-Grad bezüglich dieser Applikation sein, da Integrations- und Koordinationskosten in einer Outsourcing-Beziehung höher ausfallen würden als bei einer unternehmensinternen Lösung. Dies führt zu folgender Hypothese: H1: Je größer die Applikationsspezifität, desto geringer der Grad an SaaS-basiertem Outsourcing. 3.2. Unsicherheit und SaaS-basiertes Outsourcing Analog zur Applikationsspezifität übt die Unsicherheit in einer Outsourcing-Beziehung laut der Begründer der Transaktionskostentheorie einen negativen Einfluss auf den Grad des ITOutsourcing aus [19]. Zahlreiche empirische Studien konnten diesen Zusammenhang auch bestätigen. Nam et al. konnten in ihrem empirischen Beitrag feststellen, dass die Unsicherheit über künftige Entwicklungen in der Beziehung zwischen den Vertragspartnern eine signifikante Rolle bei der finalen Outsourcing-Entscheidung spielt [14]. Wie erwartet führte höhere Unsicherheit zu einem geringeren Outsourcing-Verhalten. In ähnlicher Weise fanden Aubert et al. heraus, dass die gefühlte Unsicherheit die größte Hürde für die Auslagerung von IT-Aktivitäten darstellt [1]. Dibbern leitete auf Basis der Vorarbeiten von Williamson [19] zwei Arten von Unsicherheit ab: Geschäftsbezogene und technologiebezogene Unsicherheit [4]. Während sich geschäftsbezogene Unsicherheit auf den Volatilitätsgrad von geschäftsbezogenen Entwicklungen (z.B. bezüglich Preise) vor und während eines Outsourcing-Verhältnisses bezieht, sind mit technologiebezogener Unsicherheit unvorhersehbare Entwicklungen hinsichtlich der Bereitstellung von IT-Diensten (z.B. Servicequalität) gemeint. Basierend auf diesen theoretischen Vorüberlegun-gen lässt sich die Hypothese aufstellen, dass hohe geschäfts- und technologiebezogene Unsicherheit zu einem geringeren Outsourcing-Grad führt, da die Unwägbarkeiten über künftige Entwicklungen in einer möglichen Outsourcing-Beziehung zu erheblichen Koordinationskosten führen würden, welche diejenigen einer unternehmensinternen Lösung übersteigen. 570 H2: Je größer die gefühlte Unsicherheit, desto geringer der Grad an SaaS-basiertem Outsourcing. 3.3. Transaktionshäufigkeit und SaaS-basiertes Outsourcing Die theoretische Fundierung der Transaktionshäufigkeit liegt darin begründet, dass eine höhere Anzahl an Transaktionen zwischen zwei Parteien Routineeffekte mit sich bringt, welche effizienter mit einem hierarchischen als mit dem Marktmechanismus abgebildet werden kann [19]. Dieser Zusammenhang wird durch Aussagen der klassischen Organisationstheorie gestützt, die feststellt, dass größere Interdependenzen zwischen zwei Organisationseinheiten eine verstärkte Notwendigkeit nach sich zieht, beide Einheiten zu integrieren, um Transaktionskosten zu sparen. Transaktionen mit geringerer Häufigkeit werden dagegen mit einer größeren Wahrscheinlichkeit über den Markt absolviert. Im Kontext des IT-Outsourcing konnte dieser Zusammenhang mehrfach bestätigt werden. Aubert et al. konnten in ihrer Studie feststellen, dass häufig genutztes IT-Kapital in der Software-Entwicklung eher „in-house“ organisiert, während sporadisch genutztes IT-Kapital ausgelagert wurde [1]. In ähnlicher Weise kommen Hancox et al. in ihrem Beitrag zu dem Schluss, dass Transaktionshäufigkeit negativ verbunden ist mit der Nutzung des Marktmechanismus [9]. Transaktionshäufigkeit im Zusammenhang mit SaaS-basierten Outsourcing kann in ähnlicher Weise interpretiert werden. Je mehr die Nutzung eines (bestehenden) Systems technische Schnittstellen und menschliche Ressourcen im Sinne von Abhängigkeitsbeziehungen in Anspruch nimmt, desto größer wird die Koordinationskomplexität zwischen den involvierten Parteien sein [4]. Anwendungssysteme, die eine große Transaktionshäufigkeit mit sich bringen, werden im Sinne der Transaktionkosteneffizienz demnach eher unternehmensintern als -extern organisiert. H3: Je größer die Transaktionshäufigkeit, desto geringer der SaaS-Outsourcing-Grad. 3.4. Firmengröße und SaaS-basiertes Outsourcing Die Unternehmensgröße ist eine der meist untersuchten Faktoren in der IS, Organisations- und Innovationsforschung (z.B. [8]). Es bestehen jedoch unterschiedliche Auffassungen darüber, welche Rolle die Unternehmensgröße in der Technoloie-Adoption spielt. Einerseits besitzen Großunternehmen häufig überschüssige Ressourcen (sog. ‚slack resources’ [16]), die für Technologieexperimente eingesetzt werden können. Andererseits sind Großunternehmen tendenziell weniger flexibel als kleine und mittlere Unternehmen, was die Verwendung neuer Technologien betrifft. Diese vergleichsweise größere strukturelle Trägheit kann somit auch zu höheren Kosten der Technologieadoption führen [7]. Im Bereich des IT-Outsourcing haben Kern et al. basierend auf der Transaktionskostentheorie und der ressourcenbasierten Theorie feststellen können, dass sich insbesondere kleine und mittlere Unternehmen (KMUs) für flexiblere Modelle des Software Sourcing interessieren, um auf diese Weise schnell und einfach auf innerbetrieblich fehlende Ressourcen (wie z.B. IT Expertise, State-of-the-Art Technologien etc.) zugreifen zu können [12]. In Anbetracht der empirischen Ergebnisse und der größeren strukturellen Trägheit von Großunternehmen lässt sich folgende Hypothese ableiten: H4: Je größer ein Unternehmen, desto geringer der Grad an SaaS-basiertem Outsourcing. 4. Forschungsmethodik 4.1. Datenerhebung und Stichprobenbeschreibung Um das Forschungsmodell in Abbildung 1 zu testen, wurde ein Fragebogen entwickelt und eine europaweite Befragung durchgeführt. Der Fragebogen wurde auf Basis einer umfassenden Literaturanalyse im Bereich des IT-Outsourcing entwickelt. Die aus der Literatur abgeleiteten Fragebogen-Items wurden anschließend mit jeweils einem IT-Leiter aus den unterschiedlichen Branchen der Stichprobe diskutiert und schrittweise angepasst. Nach diesem Pretest wurde der 571 Fragebogen schließlich im Zeitraum von September bis Dezember in den 5 größten europäischen Ländern (Deutschland, Frankreich, UK, Italien und Spanien) versendet. Die Befragung wurde auf der Ebene von konkreten Anwendungstypen (d.h. Kollaborationssysteme, Content Management Systeme, ERP, HR, SCM, Produktionssysteme, Engineering und CRM) durchgeführt, so dass Unternehmen die Möglichkeit hatten, unterschiedliche Anwendungstypen auf ihre SaaSTauglichkeit und auf die Adoptionstreiber hin zu bewerten. Die Fragebögen wurden insgesamt an 600 Großunternehmen mit einer Mitarbeiteranzahl größer 500 versandt, die zufallsbasiert aus einer Datenbank mit insgesamt 3.000 Großunternehmen bestehend aus Finanzdienstleistern, Maschinenbau-, Logistik-, High-Tech-Unternehmen, Energie-Anbieter und TIME-Unternehmen gezogen wurden. Diese wurden wiederum zufallsbasiert aus einer europäischen Firmendatenbank selektiert, die von einem Marktforschungsunternehmen bezogen wurde. Nach Unterstützung des Rücklaufs durch direkte Telefonkontakte konnten insgesamt 90 vollständige Antworten von 50 Unternehmen gewonnen werden. 4.2. Operationalisierung der Konstrukte Tabelle 1 zeigt die Messmodelle zu den Variablen des Forschungsmodells. Tabelle 1. Messmodelle des Fragebogens Konstrukt Indikatoren SaaS-basiertes Outsourcing Grad des SaaS-basierten IT-Outsourcing [13] Geschätzter Budgetanteil eines Anwendungstyps in Prozent, der auf das SaaSBezugsmodell in 2007 und 2010 entfällt bzw. entfallen wird [4] Grad der Verwendung unternehmensspezifischer Module [11] Grad der Anpassung an Unternehmensspezifika („Customization“) [11] Grad der Integration in bestehende Anwendungslandschaft [11] Technische Unwägbarkeiten bzgl. Bandbreite und Zuverlässigkeit [17] Ökonomische Unwägbarkeiten bzgl. Preis- und Produktänderungen [17] Prozessbedingte Unvorhersehbarkeiten bzgl. Erfüllung von Services [17] Applikationsspezifität (reflektiv) (Gefühlte) Unsicherheit (reflektiv) Quelle Transaktionshäufigkeit (reflektiv) Ausmaß an unternehmensinternen und -externen Schnittstellen der Anwendung [17] Grad an unternehmensinterner und -externer Vernetztheit der Anwendung [17] Ausmaß an Koordinationsaufwand zwischen Anwendern (d.h. Fähigkeiten und Ressourcen) bei der Nutzung der Anwendung [17] Firmengröße Anzahl Mitarbeiter [8] Bis auf eine Frage, in der bezogen auf den zu bewertenden Applikationstyp der Budgetanteil geschätzt werden sollte, der 2007 bzw. 2010 auf das SaaS-Bezugsmodell entfällt, wurden alle anderen Fragen auf einer 5er-Likert-Skala abgefragt (mit „1 = geringer Ausmaß“ bis „5 = hohes Ausmaß“). Die Messmodelle wurden alle von Vorgängerstudien abgeleitet, wie in Tabelle 1 angegeben. 4.3. Überprüfung des Messmodells Inhaltsvalidität wurde durch die Übernahme von Operationalisierungen vorhergehender Studien (siehe Tabelle 1) sowie durch Interviews mit 6 IT-Leitern aus unterschiedlichen Branchen gewährleistet. Die reflektiven Messmodelle wurden anhand der Standardkriterien der State-of-theArt-Literatur validiert [2]. Die Ergebnisse sind in Tabelle 2 aufgeführt. 572 Tabelle 2. Überprüfung der Messmodelle: Faktorladungen und Reliabilität Konstrukte SaaS-basiertes Outsourcing Applikationsspezifität Unsicherheit Transaktionshäufigkeit Firmengröße Anzahl Indikatoren Bereich standardisierter Faktorladungen* Composite Reliability (ρc) Average variance extracted (AVE) 2 0,928 – 0,957 0,941 0,888 3 0,855 – 0,927 0,928 0,812 3 3 0,921 – 0,964 0,695 – 0,900 0,964 0,849 0,900 0,656 1 1,000 1,000 1,000 * Alle Faktorladungen sind mindestens signifikant auf dem Niveau p<0,05. Alle standardisierten Faktorladungen sind statistisch signifikant mindestens auf dem p<0,05Niveau, was Konvergenzvalidität aufzeigt. Zur Untersuchung der Konstruktreliabilität wurden für jedes Konstrukt die sog. „composite reliability“ (CR) berechnet. Alle Konstrukte konnten dabei Werte für die CR aufweisen, die weit über den in der Literatur vorgeschlagenen Schwellenwert von 0,70 lagen [2]. Ferner konnten alle Konstrukte den Schwellenwert für die durchschnittliche extrahierte Varianz (AVE>0,50) überschreiten. Diskriminanzvalidität wurde durch eine Interkonstruktkorrelations-Matrix überprüft, indem nachgewiesen werden konnte, dass die Werte der Quadratwurzel der AVEs jeweils eindeutig größer waren als die Werte der Interkonstruktkorrelationen. Alles in allem konnte festgestellt werden, dass die Messmodelle der Konstrukte alle wesentlichen Validitäts- und Reliabilitätskriterien zufrieden stellend erfüllen und somit verwendet werden können, um das Forschungsmodell zu testen. 5. Analytische Auswertung des Strukturmodells Das auf dem Forschungsmodell in Abbildung 1 beruhende Strukturmodell wurde mit einem auf PLS (Partial least squares) basiertem Strukturgleichungsmodell getestet [2]. Die standardisierten βWerte der Pfadkoeffizienten und die erklärte Varianz R2 als Hauptgütemaß des Strukturmodells werden in Abbildung 2 wiedergegeben. Applikationsspezifität, die (gefühlte) Unsicherheit und Firmengröße hängen negativ signifikant (p<0,001) mit SaaS-basiertem Outsourcing zusammen. Dabei ist der Pfadkoeffizient von Applikationsspezifität fast doppelt so stark wie derjenige von Unsicherheit und fast vier mal so stark wie derjenige der Unternehmensgröße ausgeprägt, was darauf hinweist, dass Applikationsspezifität den weitaus stärksten Treiber von SaaS-Outsourcing darstellt. Der Pfad, der von Transaktionshäufigkeit zur abhängigen Variable führt, ist dagegen nicht signifikant. Insgesamt konnten 80% der Varianz in der abhängigen Variable, SaaS-basiertem Outsourcing, erklärt werden, was als überaus substanziell angesehen werden kann. Weitere Einsichten in die erklärende Kraft einzelner Faktoren können durch die Berechnung der Effektstärke gewonnen werden. Die Effektstärke f2 stellt einen Indikator dar, der angibt, wie sich die erklärte Varianz verändert, wenn ein unabhängiger Faktor aus dem Modell entfernt wird. f2Werte von z.B. 0,02, 0,15 und 0,35 weisen dabei auf Faktoren mit geringer, mittlerer und hoher Effektstärke hin [2]. 573 Großunternehmen Anzahl Mitarbeiter > 500 n=90 TKT-basierte Konstrukte ApplikationsSpezifität Unsicherheit -0.52*** -0,27** SaaSbasiertes Outsourcing R2 =0.80 -0.14*** -0.06ns Transaktionshäufigkeit Unternehmensgröße *p<0.05; **p<0.01; ***p<0.001; ns=nicht signifikant Abbildung 2. Ergebnisse aus der PLS-basierten Strukturgleichungsmodellanalyse Tabelle 3 bestätigt wiederum die Dominanz der Wirkung des zentralen Faktors der Applikationsspezifität in der Beeinflussung des SaaS-basierten Outsourcing-Verhaltens von Großunternehmen. Tabelle 3. Effektstärke der Transaktionskostenfaktoren und Firmengröße f2 (R2delta) Applikationsspezifität 0,28*** Unsicherheit 0,05* Transaktionshäufigkeit 0,01* Unternehmensgröße 0,05* *keine/geringe Effektstärke, **mittlere Effektstärke, ***hohe Effektstärke 6. Diskussion 6.1. Interpretation der Kernergebnisse für Forschung und Praxis Von den TKT-Faktoren ist die Applikationsspezifität der herausragende Treiber Kernergebnis 1: in der Beeinflussung von SaaS-Outsourcing in Großunternehmen. Wie in Abbildung 2 gezeigt, sind die beiden TKT-Faktoren Unsicherheit und insbesondere Applikationsspezifität signifikante und sehr erklärungskräftige Determinanten von SaaS-Outsourcing in Großunternehmen. Diese Ergebnisse reihen sich nahtlos in bisherige Forschungsergebnisse ein. Unsicherheit wurde bereits in Vorgängerstudien als signifikanter Einflussfaktor von ITOutsourcing-Entscheidungen identifiziert. Aubert et al. konstatieren in ihrem Beitrag, dass ein geringerer Grad an geschäftsbezogener und technischer Unsicherheit zu einer geringeren Komplexität und leichteren Messbarkeit der Leistungen des Outsourcing-Verhältnisses kommt, so dass der Wille zu aktiverem Outsourcing zunimmt [1]. Diese Tendenz kann mit vorliegender Studie bestätigt werden. Unsicherheit ist nicht nur in KMUs, sondern auch in Großunternehmen ein wichtiger Faktor bei einer Entscheidung für oder gegen SaaS. Als herausragender Treiber der SaaS-Outsourcingentscheidung in Großunternehmen konnte jedoch, genau wie in vorangegangenen Studien, die Applikationsspezifität identifiziert werden. Die starke Ausprägung dieses Indikators weist darauf hin, dass Großunternehmen insbesondere die Situation ihrer gegenwärtigen Applikationslandschaft ins Kalkül mit einbezieht, wenn es die Tauglichkeit des 574 SaaS-basierten Outsourcing-Ansatzes bewertet. Von einer Auslagerung von Applikationen, die verstärkt an Unternehmensspezifika angepasst sind und deshalb einen hohen (Des-) Integrationsaufwand benötigen, wird verstärkt abgesehen. Da Großunternehmen tendenziell auf eine längere Entwicklung ihrer IT-Anwendungslandschaft (zum Teil mit immer noch recht fragmentierten Legacy-Systemen) zurückblicken können, ist es nicht verwunderlich, dass diese Überlegungen bei der Outsourcing-Entscheidung im Vordergrund stehen. Kernergebnis 2: Unternehmensgröße ist ein hoch signifikanter, jedoch eher moderater Erklärungsfaktor von SaaS-basiertem IT-Outsourcing in Großunternehmen. Unternehmensgröße spielt nicht nur eine wichtige Rolle im Segment des Mittelstandes, sondern auch im Segment der Großunternehmen, wenn es darum geht, sich für oder gegen SaaS zu entscheiden. Das bedeutet, dass Großunternehmen mit einer geringeren Anzahl an Mitarbeitern eine vergleichsweise höhere SaaS-Adoptionsrate aufweisen können als solche mit einer größeren Anzahl. Insgesamt kann damit resümiert werden, dass das Mietmodell SaaS insbesondere im Segment kleinerer bis mittlerer Großunternehmen Anklang findet. Die Ergebnisse halten für Praktiker mehrere interessante Implikationen bereit. Zum einen können IT Manager von Großunternehmen, die die Adoption von SaaS in Erwägung ziehen, technologische und geschäftsbezogene Unsicherheiten vorab klären und sich in künftigen Vertragsverhandlungen dagegen wappnen (z.B. über konkrete Bestimmungen im Preismodell). Zum anderen sollten sich IT Manager insbesondere darauf konzentrieren zu analysieren, wie einfach oder schwer sich ondemand basierte Software Services in die eigene bestehende Prozess- und Anwendungslandschaft integrieren lassen. Eine detaillierte Untersuchung des eigenen Anwendungsportfolios auf Eigenschaften der Applikationsspezifität würde einen wichtigen Vorbereitungsschritt für mögliche Szenarien des SaaS-Outsourcing darstellen. Basierend auf den Ergebnissen, dass Unsicherheitsund Spezifitätsfaktoren eine zentrale Rolle bei SaaS-Outsourcing spielen, sollten auf SaaSAnbieterseite einerseits vertrauensbildende Mechanismen verstärkt in der Außenkommunikation gegenüber Großunternehmen etabliert werden. Andererseits sollten SaaS-Dienstleister darauf achten, dass ihre Angebote nicht bei der bloßen Bereitstellung der Services stehen bleiben, sondern ebenso umfangreiche Integrationslösungen umfassen, die es Anwenderfirmen erleichtern, den Schritt in Richtung SaaS zu wagen. 6.2. Verbesserungspotenziale und künftige Forschungsfelder Obwohl die Ergebnisse aus vorliegender Studie die Relevanz des transaktionskostentheoretischen Forschungsmodells unterstreichen, lassen sich mehrere Verbesserungspotenziale und auch künftige Forschungsfelder identifizieren. Zunächst ist vorliegender Beitrag eine Querschnittsstudie, die ausschließlich Zusammenhänge, jedoch keine Kausalitäten aufzeigen kann. Eine Längsschnittstudie würde sicherlich eine weitere nützliche Perspektive auf längerfristige Wirkungszusammenhänge bieten. Obwohl vorliegende Studie auf einem Datensatz mit sechs Ländern und Industrien beruht, konnte aufgrund der geringen Stichprobengröße keine Unterschiedshypothesen zwischen Kulturen und Industriezweigen durchgeführt werden. Künftige Forschungsbemühungen sollten sich deshalb verstärkt auf die Herausarbeitung von kulturellen und Branchen-Unterschieden bezüglich SaaSOutsourcing konzentrieren. Weitere, eher theoretisch motivierte Forschungsfelder lassen sich aus der Erweiterung des verwendeten Forschungsmodells ableiten. Zum einen ließe sich der transaktionskostentheoretische Bezugsrahmen durch weitere institutionenökonomische, strategische, aber auch verhaltenswissenschaftliche Theorieansätze erweitern, um ergänzende Erklärungsbeiträge abzuleiten. Zum anderen wäre eine stärkere konzeptionelle Durchdringung von Unsicherheit und Applikationsspezifität eine fruchtbare Anregung für künftige Forschungsarbeiten. 575 7. Literaturverzeichnis [1] AUBERT, B. A., RIVARD, S. und PATRY, M., A transaction cost model of IT outsourcing, Information and Management, 41, 7, 2004, S. 921-932. [2] CHIN, W. W., The partial least squares approach for structural equation modelling, in: G. A. Marcoulides (Hrsg.), Modern Methods for Business Research, Lawrence Erlbaum Associates, Hillsdale, NJ 1998, S. 295-336. [3] COASE, R. H., The nature of the firm, Economica, 4, 16, 1937, S. 386-405. [4] DIBBERN, J., Sourcing of application software services. Empirical evidence of cultural, industry and functional differences, Physica-Verlag, Heidelberg, New York 2004. [5] DIBBERN, J. und HEINZL, A., Outsourcing der Informationsverarbeitung im Mittelstand: Test eines multitheoretischen Kausalmodells, Wirtschaftsinformatik, 43, 4, 2001, S. 339-350. [6] DUBEY, A., MOHIUDDIN, J., BAIJAL, A. und RANGASWAMI, M., Enterprise software customer survey 2008, McKinsey & Company and SandHill Group, 2008. [7] DUNCAN, The ambidextrous organization: Designing dual structures for innovation, in: R. H. Kilmann, L. R. Rondy und D. P. Slevin (Hrsg.), The Management of organizations: Strategy and Implementation, North-Holland, New York 1976, S. 167-188. [8] GREMILLION, L. L., Organization size and information system use: An empirical study, Journal of Management Information Systems, 1, 2, 1984, S. 4-27. [9] HANCOX, M. und HACKNEY, R., IT outsourcing framework for conceptualizing practice and perception, Information Systems Journal, 10, 3, 2000, S. 217-237. [10] HESS, T. und WOLF, C. M., Software as a service 1.0 and beyond, in: T. Hess (Hrsg.), Software as a Service: Strategische Perspektiven und praktische Bedeutung, München 2008, S. 8-14. [11] KERN, T., KREIJGER, J. und WILLCOCKS, L., Exploring ASP as sourcing strategy: theoretical perspectives, propositions for practice, Journal of Strategic Information Systems, 11, 2, 2002, S. 153-177. [12] KERN, T., LACITY, M. C. und WILLCOCKS, L., Netsourcing: Renting Business Applications and Services Over a Network, Prentice-Hall, New York 2002. [13] LOH, L., An Organizational-Economic Blueprint for Information Technology Outsourcing: Concepts and Evidence, Proceedings of the 15th International Conference on Information Systems, Vancouver, Canada 1994, S. 7389. [14] NAM, K., RAJAGOPALAN, S., RAO, H. R. und CHAUDHURY, A., A two-level investigation of information systems outsourcing, Communications of the ACM, 39, 7, 1996, S. 37-44. [15] PETERSON, R. R. und FAIRCHILD, A. M., Adoption trends in application service provisioning: an exploratory field study of small and medium-sized enterprises, Proceedings of the European Conference on Information Systems, Naples, Italy 2003. [16] SCHUMPETER, J., Capitalism, Socialism and Democracy, Princeton University Press, Princeton, NJ 1950. [17] SMITH, M. A. und KUMAR, R. L., A theory of application service provider (ASP) use from a client perspective, 41, 8, 2004, S. 977-1002. [18] WIENER, M., Critical success factors of offshore software development projects - the perspective of Germanspeaking companies Gabler, Wiesbaden 2006. [19] WILLIAMSON, O. E., The economic institutions of capitalism: firms, markets, relational contracting, The Free Press, New York 1985. 576 PRÜFKRITERIEN FÜR GESCHÄFTSMODELLE IM KONTEXT VON SOFTWARE AS A SERVICE Matthias Biggeleben, Harald Kolbe, Markus Schäfermeyer, Helena Vranesic1 Kurzfassung Es gibt einen andauernden Diskussionsbedarf, wie innovative, softwarebasierte Services realisiert werden können. Im Zentrum dieser Diskussion steht das Konzept Software as a Service (SAAS), das sich von der klassischen Softwaredistribution unterscheidet und die aktuelle Weiterentwicklung des klassischen Dienstleistungsgedankens widerspiegelt. Neben der technischen Gestaltung von SAAS ist die Entwicklung von Geschäftsmodellen ein noch offenes Feld. Dieser Beitrag identifiziert die betriebswirtschaftlichen Grundprinzipien klassischer Dienstleistungen. Diese Prinzipien werden auf SAAS übertragen, um die ökonomischen Implikationen für die Geschäftsmodellentwicklung abzuleiten. Ziel dieses explorativen Beitrags ist die Entwicklung von Prüfkriterien zur Bewertung von SAAS-Geschäftsmodellen. 1. Einleitung Dienstleistungen repräsentieren im Kontext der Drei-Sektoren-Theorie den tertiären Sektor einer Volkswirtschaft. Beispiele für allgemein bekannte und täglich konsumierte Dienstleistungen des tertiären Sektors sind Handel, Logistik und Verkehr sowie das Kredit- und Versicherungswesen. Neben der Immaterialität sind „klassische“ Dienstleistungen durch eine simultane Produktion und Konsumption sowie dadurch gekennzeichnet, dass ein sogenannter externer Faktor vom Kunden in den Leistungserstellungsprozess des Dienstleisters eingebracht wird [7, 9, 11]. Obwohl die Softwareentwicklung als Dienstleistungsform ebenfalls Teil des tertiären Sektors ist, gibt es einen andauernden Diskussionsbedarf, wie innovative, softwarebasierte Services realisiert werden können. Im Zentrum dieser Diskussion steht das Konzept Software as a Service (SAAS), das sich von der klassischen Softwaredistribution unterscheidet und die aktuelle Weiterentwicklung des klassischen Dienstleistungsgedankens widerspiegelt [20, 22]. Neben der technischen Gestaltung von SAAS ist die Entwicklung von Geschäftsmodellen ein noch offenes Feld. Im Rahmen dieses Beitrags werden zunächst die betriebswirtschaftlichen Prinzipien klassischer Dienstleistungen dargestellt. Anschließend werden diese Prinzipien auf SAAS übertragen, um die betriebswirtschaftlichen Implikationen für die Geschäftsmodellentwicklung abzuleiten. Der Fokus dieser explorativen und deskriptiven Untersuchung liegt auf den folgenden Fragestellungen: Wodurch unterscheidet sich SAAS von der klassischen Dienstleistung? Welche ökonomischen Treiber 1 Universität Frankfurt, Germany 577 beeinflussen SAAS? Welchen ökonomischen Prinzipien müssen bei der Entwicklung von Geschäftmodellen berücksichtigt werden? Dieser Beitrag ist wie folgt aufgebaut. Kapitel 2 definiert den klassischen Dienstleistungsbegriff und stellt die zugrunde liegenden betriebswirtschaftlichen Grundprinzipien dar. In Kapitel 3 wird SAAS als Konzept definiert und gegenüber der klassischen Softwaredistribution abgegrenzt. Ferner wird die technische Machbarkeit zur Bewegung des externen Faktors in Anlehnung an die klassische Dienstleistung diskutiert. In Kapitel 4 werden die identifizierten ökonomischen Prinzipien auf SAAS angewendet. Es werden Prüfkriterien zur Bewertung von Geschäftmodellen entwickelt. Abschließend werden in Kapitel 5 die wichtigsten Implikationen für die Geschäftsmodellentwicklung für SAAS zusammengefasst. 2. Das Dienstleistungskonzept FANDEL und BLAGA definieren Dienstleistungen als immaterielles Ergebnis von Produktionsprozessen und differenzieren sie somit von Sachgütern, die per Definition als materielles Ergebnis von Produktionsprozessen verstanden werden [3]. Dienstleistungen sind nicht lagerbar bzw. vergänglich [9] und werden daher simultan produziert und konsumiert [7]. Ferner stellt die Integration eines externen Faktors in die Leistungserstellung ein konstituierendes Merkmal von Dienstleistungen dar [10]. Dabei liegt der externe Faktor im Gegensatz zu internen Produktionsfaktoren nicht im Einflussbereich des Dienstleisters. Er muss vom Dienstleistungsnehmer aktiv in den Leistungserstellungsprozess des Anbieters eingebracht werden, um nutzenstiftend transformiert werden zu können [2]. So wird beispielsweise in der Logistik durch den Einsatz interner Produktionsfaktoren der Ausgangszustand des Logistikobjektes als externer Faktor in den vom Kunden angestrebten Endzustand transformiert [11]. Im Rahmen der Dienstleistungsproduktion werden einerseits Rationalisierungspotenziale auf Anbieterseite erschlossen [19]. Andererseits wird für den Kunden ein Nutzen in Form von Qualitätsund Kostenvorteilen geschaffen. Dienstleistungsanbieter sind durch die Ausnutzung volumenabhängiger Kostendegressionen in der Lage, Effizienzvorteile zu erzielen. Produktionsfixe Kosten verbunden mit einer zunehmenden Ausbringungsmenge schlagen sich in fallenden Durchschnittskosten nieder. Die auf diese Weise realisierten Skaleneffekte (Economies of Scale) motivieren Dienstleistungsanbieter, hohe Kapazitätsauslastungen anzustreben. Ein bekanntes Beispiel für die Realisierung von Skaleneffekten ist die Vergrößerung der Transporteinheit in der Logistik, wodurch die durchschnittlichen Stückkosten sinken. Zusätzlich können Dienstleistungsanbieter Bündelungseffekte (Economies of Scope) erzielen, indem sie komplementäre bzw. aufeinander aufbauende Dienstleistungen anbieten oder Aufträge unterschiedlicher Kunden miteinander kombinieren. Beispielsweise nutzt der gleichzeitige Vertrieb von Mobiltelefonen und entsprechenden Nutzungsverträgen Bündelungseffekte aus, da hiermit Vertriebskosten eingespart werden können. Call-Center nutzen Bündelungseffekte aus, indem sie ihre Dienstleistung für verschiedene Unternehmen anbieten. Im Fall der externen Leistungserbringung werden Spezialisierungsvorteile (Economies of Skill) als wesentliches Argument für die Fremdvergabe von Leistungen genannt [13]. Grundlage hierfür bilden die aus Lerneffekten resultierende Prozessbeherrschung, das für die Dienstleistungserbringung notwendige Wissen sowie eine effiziente Ressourcennutzung. Fachwissen ermöglicht es, den Prozess der Leistungserbringung effizient durchzuführen [8]. Spezialisierungsvorteile treffen beispielsweise für Handwerker, Steuer-, Rechts- und Unternehmensberater zu. Folglich lassen sich auf 578 Konsumentenseite durch Inanspruchnahme einer Dienstleistung – verglichen mit dem Fall der Eigenproduktion – Qualitätsvorteile sowie Kosten- und Zeiteinsparungen realisieren. Neben den beschriebenen Rationalisierungspotenzialen auf Anbieterseite entscheidet der Zeitpunkt des Markteintritts über Erfolg oder Misserfolg einer Dienstleistung. So existieren zahlreiche Beispiele, in denen sich entweder der „First-Mover“ oder ein sogenannter „Follower“ (auch „SecondMover“ genannt) am Markt durchgesetzt hat. Als Vorteile für den First-Mover gelten nach LIEBERMAN und MONTGOMERY (1) eine überlegene Produkt- und Prozesstechnologie gegenüber potenziellen Wettbewerbern, (2) die Sicherung von Vorkaufsrechten knapper Ressourcen (z. B. die Reservierung einer Absatzregion), die den Markteintritt von Wettbewerbern erschwert sowie (3) der Aufbau von „Switching Costs“, die ein Kunde aufbringen muss, um zum Wettbewerber wechseln zu können [15, 24]. Als Nachteile des First-Movers gelten (1) die hohen Entwicklungskosten für die Innovation gegenüber niedrigeren Imitationskosten, (2) die Unsicherheit bei der Erschließung eines neuen Marktes, (3) die Dynamik der Kundenbedürfnisse und (4) der „Lock-In“ einer Strategie durch getätigte Investitionen. In Ergänzung zu den genannten Rationalisierungspotenzialen und Überlegungen zum Markteintritt, welche auch für die Sachgüterproduktion gültig sind, werden in der Literatur weitere dienstleistungsspezifische Erfolgsfaktoren diskutiert [17, 21]. Dienstleitungen benötigen ein hohes Maß an Kundenorientierung [17]. Neben einem adäquaten Auftritt des Unternehmens und des Personals, wird eine intensive Interaktion zwischen Kunde und Dienstleitungsanbieter gefordert. Ein offener Kundenkontakt sowie eine hohe kulturelle Kompetenz sollen helfen, individuelle Kundenwünsche zu identifizieren [21]. Der Erfolg einer Dienstleistung orientiert sich hauptsächlich an der Kundenzufriedenheit, die insbesondere von der Dienstleitungsqualität abhängt [17]. Daher kommt der Qualitätskontrolle von Dienstleitungen eine besondere Bedeutung zu [21]. Darüber hinaus spielt bei Dienstleistungen der Faktor Arbeit als Potenzialfaktor eine größere Rolle als im Bereich der Sachgüterproduktion [17]. Dementsprechend bedarf es einer zielgerichteten Dokumentation und Zuordnung von Kompetenzen sowie einer Abstimmung von Leistungspotenzialen durch den Dienstleistungsanbieter [17]. Es wird deutlich, dass dienstleistungsspezifische Erfolgsfaktoren den Faktor Mensch im Rahmen der Leistungserbringung fokussieren. Diese Faktoren können im Kontext von SAAS nicht berücksichtigt werden, da die Leistungserbringung vollständig softwarebasiert und damit ohne menschliche Interaktion auf Seite des Anbieters erfolgt. Infolgedessen lässt dieser Beitrag dienstleistungsspezifische Erfolgsfaktoren bewusst außer Acht und konzentriert sich auf die genannten Rationalisierungspotenziale und Überlegungen zum Markteintritt, um Prüfkriterien für Geschäftsmodelle zu entwickeln. Für den weiteren Verlauf dieses Beitrags werden Dienstleistungen wie folgt charakterisiert: (1) Es wird ein externer Faktor vom Dienstleistungsnehmer in die Leistungserstellung eingebracht, (2) die Dienstleistung stiftet einen Nutzen für den Dienstleistungsnehmer, (3) die Dienstleistung basiert auf mindestens einem der genannten Skalen-, Spezialisierungs- oder Bündelungseffekten. 3. Software as a Service 3.1. Begriffsabgrenzung Das Konzept „Software as a Service“ (SAAS) wird vom klassischen Softwarekauf abgegrenzt. Beim Kauf erwirbt der Kunde die Software selbst sowie die Lizenz zur Nutzung der Software [1]. Unabhängig davon, ob das Softwareprodukt mittels eines physischen Mediums oder via Download 579 zum Kunden gelangt, obliegt es dem Kunden, die Software auf eigener Hardware zu installieren und zu betreiben [5]. Beim Konzept von SAAS hingegen obliegen Installation und Betrieb der Software dem Serviceanbieter. Es liegt eine klare Trennung zwischen Nutzung und Betrieb vor [23]. Eng verwandt mit SAAS ist das Konzept des „Application Service Providing“ (ASP). GOLD ET AL. führen zwei Kriterien an, um den Unterschied zwischen SAAS und ASP zu kennzeichnen [4]: (1) SAAS ist wesentlich feingranularer als ASP. SAAS erlaubt auch Services, die alleinstehend keinen direkten Nutzen stiften. (2) SAAS kann auf einem Anbieternetzwerk basieren, d. h. der Serviceanbieter integriert weitere Services von Dritten. Die eindeutige Kunde-Anbieter-Beziehung wird dadurch aufgehoben. Der ASP-Ansatz hingegen basiert auf geringfügig angepasster Standardsoftware. ASP kann als Spezialfall von SAAS verstanden und letzterem untergeordnet werden. Ebenso lässt sich SAAS als nächste Generation von ASP verstehen [14, 20]. Die Vorteile von SAAS liegen in der einfachen und schnellen Orchestrierung mehrerer Services, wodurch ein hoher Grad an Wiederverwendung und Anpassbarkeit erreicht wird [18]. Die Dimensionen, anhand derer zwischen klassischer Software, ASP und SAAS unterschieden werden kann, sind in Abbildung 1 dargestellt. Abbildung 1. Unterscheidung zwischen klassischer Software, ASP und SAAS. Während SAAS und ASP der Geschäftsprozess- bzw. Produktebene zuzuordnen sind, adressieren die hiermit eng verwandten Konzepte „Service-orientierte Architektur“ (SOA) und „WebService“ architektonische bzw. technische Fragestellungen [16]. Mit Blick auf die ökonomischen Merkmale potenzieller Geschäftsmodelle ist jedoch die technische Implementierung irrelevant. Im Folgenden werden unter SAAS diejenigen Softwareprodukte verstanden, (1) die über ein Netzwerk auf der Präsentations- und/oder Applikationsebene über dokumentierte Schnittstellen angesprochen werden, (2) die standardisierte Protokolle und Datenformate zur Kommunikation anbieten und nutzen, (3) die mandantenfähig sind und (4) deren Installation und Betrieb im Verantwortungsbereich des Anbieters liegen. Dadurch fällt nicht jedes ASP-basiertes Angebot unter diese Arbeitsdefinition. Das Angebot einer nicht-mandantenfähigen Office-Umgebung, die ein Kunde mittels Terminal Services erreicht, ist eine softwareorientierte Dienstleistung, die zwar ASP, jedoch nicht SAAS zuzuordnen ist. Dagegen existieren weitbekannte web-basierte Anwendungen, wie bspw. die kundenindividuellen Marketspaces von Amazon oder EBay, die im Sinne der Arbeitsdefinition als SAAS verstanden werden können. 580 3.2. Daten als externer Faktor Problematisch wird die Umsetzung von SAAS, wenn ein Service große Datenmengen des Servicenehmers benötigt. Diese Problematik kann mit dem Einbringen des externen Faktors durch den Kunden in den Leistungserstellungsprozess des Dienstleisters in der klassischen Dienstleistung verglichen werden. Technisch ist diese Problemstellung mit der Enterprise Information Integration verwandt [6]. In diesem Kontext gibt es zwei denkbare Lösungsansätze: (1) Der Servicenehmer überträgt bei jedem Serviceaufruf alle benötigten Daten (Push-Verfahren), (2) der Serviceanbieter fordert die benötigten Daten über eine Rückrufschnittstelle (Callback) des Servicenehmers an (Pull-Verfahren). Das Pull-Verfahren kann durch einen Rückruf auf der Anwendungsebene oder einem Direktzugriff auf die Datenbank umgesetzt werden. Ferner ist ein vollständiger, inkrementeller oder bedarfsgerechter Transfer der Daten denkbar. Mögliche konzeptuelle Lösungen zur Umsetzung von SAAS sind in Tabelle 1 zusammengefasst. Diese werden im Folgenden skizziert und durch Beispiele oder Praxiserfahrungen aus Integrationsprojekten veranschaulicht. Tabelle 1: Mögliche Umsetzungsvarianten von SAAS. Push Pull Applikationsebene Datenbankebene Vollständig Umsetzbar / Fall (1) Nicht umsetzbar Inkrementell Umsetzbar / Fall (2) Nicht umsetzbar Bedarfsorientiert Umsetzbar / Fall (3) Nicht umsetzbar Vollständig Umsetzbar / Fall (4a) Umsetzbar / Fall (4b) Inkrementell Nicht umsetzbar Nicht umsetzbar Bedarfsorientiert Umsetzbar / Fall (5a) Umsetzbar / Fall (5b) Ein vollständiger oder inkrementeller Push auf der Applikationsebene ist umsetzbar (Fall 1 und 2). Der Servicenehmer überträgt sämtliche Daten vor einer Session (Fall 1). Ebenso kann dies bedarforientiert ablaufen, d. h. der Servicenehmer schickt die genau benötigten Daten bei jedem Serviceaufruf mit (Fall 3). Dies entspricht einem klassischen Funktionsaufruf mit bekannten Parametern. Zu Fall (1) konnten praktische Erfahrungen durch einen Autor gesammelt werden. Hierbei musste ein Buchungssystem für Hotels und Ferienwohnungen über Serviceschnittstellen mit einer großen, deutschen Immobilienplattform integriert werden. Die Wohnungsdaten, Belegungspläne und Preise der nächsten 24 Monate werden täglich per Push vollständig übertragen. Alle weiteren Serviceaufrufe basieren auf diesen Daten. Fall (2) wird bspw. durch Google Analytics genutzt. Jeder einzelne Webseitenaufruf sendet über einen sogenannten Tracker entsprechende Informationen an Google Analytics. Die Gesamtanalyse einer Website basiert auf den inkrementell gesammelten Daten. Ein Pull ist grundsätzlich auf Applikations- und Datenbankebene möglich. Der Umweg über die Applikationsebene kann in diesem Kontext mit einem Proxy verglichen werden [6]. Fall (1) und (4) können als gleichwertig verstanden werden; lediglich die Rolle des Auslösers wird getauscht. Der Pull auf Datenbankebene ist jedoch die einfachste Lösung (Fall 4b). Dieser Ansatz wurde ebenfalls praktisch durch einen Autor umgesetzt. Ziel war es, einen täglichen, automatisierten Datenaustausch zwischen dem ERP-System eines Großhändlers (Servicenehmer) und dessen B2B-Plattform (Serviceanbieter) zu realisieren. Als beste Lösung zeigte sich ein direkter Pull durch den Serviceanbieter auf der Datenbankebene des ERP-Systems. Ein inkrementeller Pull ist weder auf der Applikations- noch der Datenbankebene möglich, da der Serviceanbieter nicht weiß, wann neue oder geänderte Daten beim Servicenehmer vorliegen. Ein bedarfsorientierter Pull ist dagegen umsetzbar. Fall (5b) wurde ebenfalls in der zuvor genannten 581 Integration des ERP-Systems und der B2B-Plattform umgesetzt. Diese Lösung überträgt durch einen bedarfsorientierten Pull auf Datenbankebene aktuelle Lagerbestände in Echtzeit aus dem ERPSystem in die B2B-Plattform. Ein aktiver Push auf der Datenbankebene gilt in diesem Beitrag als nicht umsetzbar, da eine Datenbank als rein passives Speichermedium verstanden wird. 4. Implikationen für die Geschäftsmodellentwicklung für SAAS Im Vergleich zur klassischen Dienstleistung zeichnet sich SAAS durch folgende Besonderheiten aus: (1) SAAS ist orts- und zeitunabhängig, da der Service jederzeit über das Internet erreichbar sein muss. Dagegen kann der Markt für klassische Dienstleistungen bspw. geographisch oder auf Grund von Zeitzonen- oder Sprachbarrieren segmentiert sein. (2) SAAS kann im Vergleich zur klassischen Dienstleistung günstiger auf einen großen Kundenkreis skaliert werden. Der Aufbau neuer Kapazitäten verursacht bei SAAS lediglich geringe, sprungfixe Kosten für technische Infrastruktur. Zudem benötigen vollständig automatisierte Dienstleistungen während der Leistungserbringung keine zusätzlichen personellen Aktivitäten. Die tatsächliche Kapazitätsauslastung verursacht somit keine entscheidungsrelevanten Personalkosten. Dies stellt den wesentlichen Unterscheid von SAAS gegenüber der klassischen, personengebundenen Dienstleitung, wie bspw. Handwerk oder Beratung, dar. In Kombination mit der Orts- und Zeitunabhängigkeit führt die skizzierte Kostenstruktur zu einer globalen Wettbewerbssituation mit hohem Wettbewerbsdruck, welche nur wenige Wettbewerber pro Marktsegment erlaubt. (3) Zusätzlich steht SAAS im Wettbewerb zur „make or buy“-Entscheidung potenzieller Kunden. Diese können sich gegen die Servicenutzung entscheiden und die Eigenerstellung oder den Eigenbetrieb eines entsprechenden Softwareprodukts vorziehen. Dies führt zu einer erweiterten „make or buy or rent“-Entscheidung (vgl. Abbildung 2). Abbildung 2. Wettbewerb zwischen SAAS, klassischer Software und der Eigenentwicklung. Die genannten Besonderheiten müssen bei der Geschäftsmodellentwicklung für SAAS berücksichtigt werden. Ein Geschäftsmodell muss demnach in der Lage sein, sich sowohl gegen Wettbewerber als auch gegen die „make or buy“-Entscheidung potenzieller Kunden durchzusetzen. Notwendiges Prüfkriterium für ein Geschäftsmodell ist grundsätzlich die Stiftung von Kundennutzen. Alle weiteren, hinreichenden Prüfkriterien fokussieren die Wettbewerbssituation des Services. An dieser Stelle wird angenommen, dass für SAAS die gleichen Wettbewerbsregeln gelten wie für klassische Dienstleistungen. Die bereits skizzierten Vorteile durch Skalen-, Spezialisierungs- oder Bündelungseffekte sowie den Zeitpunkt des Markteintritts ergänzt KAY noch um eine natürliche Monopolstellung und Exklusivitätsmerkmale einer Leistung [12]. Ein SAAS-Geschäftsmodell ist somit auf die folgenden Wettbewerbsvorteile zu prüfen: (1) Zeitpunkt des Markteintritts (First-Mover), 582 Effizienzvorteile durch (2) Economies of Scale, (3) Economies of Scope und (4) Economies of Skill sowie Vorteile durch (5) Reputation oder Marktanteil und (6) Exklusivität des Services. Ein First-Mover baut durch Innovation ein Alleinstellungsmerkmal auf, d. h. er betritt ein neues Marktsegment, welches er exklusiv bedient. Dieses Geschäftsmodell ist zeitlich limitiert. Der FirstMover ist gezwungen, seine Stellung durch den Ausbau anderer Wettbewerbsvorteile zu festigen, bspw. durch die Realisierung von Economies of Scale, Skill oder Scope. Denn nicht selten wird das Alleinstellungsmerkmal des First-Movers durch einen Follower genommen. Der Follower nutzt ausgereifte Technologien der zweiten Generation, erzielt einen Trittbrettfahrereffekt bezüglich der vom First-Mover aufgebauten Kundennachfrage und lernt aus den Fehlern des First-Movers. Als Gegenbeispiele für eine Festigung der Wettbewerbsposition durch den First-Mover sind hier EBay, Google Search und Salesforce.com als erfolgreiche Follower anzuführen. Das Prinzip der Economies of Scale wird grundsätzlich anhand der Ausbringungsmengen beschrieben. Um Skaleneffekte auf SAAS übertragen zu können, muss die Abarbeitung von Requests als Ausbringungsmenge interpretiert werden. Dieser Menge müssen sprungfixe Kosten zum Aufbau von Kapazitäten gegenübergestellt werden. Sprungfixe Kosten von SAAS fallen für die Anschaffung, den Betrieb und die Wartung der technischen Infrastruktur an. Die Kosten der Softwareentwicklung sind von der Ausbringungsmenge unabhängig und somit für die Betrachtung von Skaleneffekten irrelevant. Durch Bündelung verschiedener Dienstleistungen können Economies of Scope realisiert werden. Die zentrale Eigenschaft von SAAS, verschiedene Services integrieren zu können, schafft Synergieeffekte und somit einen Mehrwert beim Kunden. Ein Beispiel hierfür ist die Kombination von Google AdWords mit Google Analytics, um Werbekampagnen durch umfassende Analysen des Benutzerverhaltens gezielt steuern zu können. Neben dieser Form der Bündelung wird auch die Konsolidierung von Kunden(-aufträgen) den Economies of Scope zugerechnet. Sofern ein Service mandantenfähig ist (Multitenancy), können ungenutzte Kapazitäten durch das Zusammenlegen mehrerer Kunden ausgeschöpft werden. Die hierdurch realisierten Fixkostendegressionseffekte stellen einen Wettbewerbsvorteil des Serviceanbieters dar. Folglich kann der Serviceanbieter bspw. einen niedrigeren Marktpreis anbieten oder durch Kosteneinsparungen Liquidität für Investition, Innovation und Produktentwicklung sichern. Realisierte Economies of Scale und insbesondere Economies of Scope sind die zentralen ökonomischen Treiber, wodurch sich SAAS außerhalb des Wettbewerbs mit anderen Serviceanbietern gegen die kundenseitige Entscheidung „make or buy“ durchsetzen kann. Economies of Skill beschreiben in erster Linie Rationalisierungspotenziale, die durch Fachwissen und einen Vorsprung auf der Lernkurve realisiert werden. In diesem Beitrag werden auch Wettbewerbsvorteile durch Qualitätsführerschaft, das umfassendere Produkt oder das höhere Service Level unter dem Begriff Economies of Skill subsumiert. Je nach Ausprägung des Wissensvorsprungs können Economies of Skill sowohl als Wettbewerbsvorteil als auch als Alleinstellungsmerkmal verstanden werden. Im letzten Fall bildet der Serviceanbieter ein eigenes Marktsegment und steht nicht in Konkurrenz zu verwandten Serviceanbietern. Beispiele für Geschäftsmodelle, die Economies of Skill ausschöpfen, sind SAPs „Business by Design“, Salesforce.com im Bereich Customer-Relationship-Management sowie Google Search im Bereich Suchmaschinen. Die genannten Beispiele grenzen sich durch individuelles Fachwissen, Produktfortschritt, Fehlerfreiheit, Stabilität sowie ein hohes Service Level von der Konkurrenz ab. Die Reputation eines Serviceanbieters kann als Wettbewerbsvorteil und somit als konstituierendes Merkmal eines Geschäftsmodells genutzt werden. Dies gilt insbesondere für SAAS, wenn kritische 583 Daten des Kunden verarbeitet werden. Bekanntheitsgrad und Reputation schaffen Vertrauen bei potenziellen Kunden. Unbekannte Wettbewerber sind dagegen nicht in der Lage, das notwendige Vertrauen für datenkritische Services aufzubauen. Ein ähnliches Merkmal für Geschäftsmodelle stellt die Ausnutzung eines hohen Marktanteils oder der Marktführerschaft dar. Für elektronische Märkte und Communities impliziert ein hoher Marktanteil hohe Besucherzahlen und das Überschreiten der kritischen Masse. Dies kann sowohl vom Markführer genutzt werden, um eigene, neue Services zu etablieren, als auch von dritten Anbietern, die eine strategische Partnerschaft mit dem Marktführer aufbauen. Als Beispiele für die Ausnutzung der Reputation und der Marktstellung dienen auch hier SAPs Business By Design und Salesforce.com. Beide Anbieter genießen das Vertrauen der Kunden und bieten grundlegende Services an. Das Gesamtangebot ergibt sich jedoch erst durch die Integration und Zertifizierung von dritten Serviceanbietern (Economies of Scope), mit denen SAP und Salesforce.com jeweils strategische Partnerschaften eingehen. Von diesem Geschäftsmodell profitieren sowohl der Integrator als auch die Zulieferer. Schließlich stellt Exklusivität ein weiteres Alleinstellungsmerkmal dar. Auf Grund von gesetzlichen Regelungen, exklusiven Vertriebs- oder Patentrechten kann der Serviceanbieter ein Geschäftsmodell außerhalb des Wettbewerbs etablieren. Ferner kann Exklusivität durch die Bildung eines natürlichen Monopols, bspw. durch Skaleneffekte, erreicht werden. Eine zusammenfassende Klassifizierung von Geschäftsmodellen für SAAS findet sich in der folgenden Abbildung 3. Neben der Nutzenstiftung ist ein Geschäftsmodell stets auf Alleinstellungsmerkmale und Wettbewerbsvorteile zu prüfen. Abbildung 3: Prüfkriterien für SAAS-Geschäftsmodelle. 584 5. Schlussfolgerung Gegenüber klassischen Dienstleistungen wurden die Orts- und Zeitunabhängigkeit, die permanente Verfügbarkeit sowie die vernachlässigbaren Personalkosten als Besonderheiten von SAAS identifiziert. Dadurch entsteht ein globaler Markt mit hohem Wettbewerbsdruck innerhalb der jeweiligen Marktsegmente. Hinsichtlich der Wettbewerbssituation gelten für SAAS die gleichen ökonomischen Regeln wie für klassische Dienstleistungen. Der durch ein Geschäftsmodell definierte Service muss grundsätzlich einen Kundennutzen stiften. Darüber hinaus muss ein Geschäftsmodell zwei Prüfkriterien genügen, um sich am Markt etablieren zu können. Entweder (1) kann der Anbieter durch den Zeitpunkt des Markteintritts, durch besonderes Expertenwissen oder durch die Schaffung eines natürlichen Monopols ein Alleinstellungsmerkmal erzielen, oder (2) der Anbieter kann sich durch die Realisierung von Effizienzvorteilen (Skalen-, Bündelungs- und Spezialisierungseffekte) oder seiner Reputation von seinen Wettbewerbern abgrenzen. Ein Anbieter von SAAS befindet sich in einer zweifachen Wettbewerbssituation. Neben der direkten Konkurrenz muss sich ein Geschäftsmodell gegen die „make or buy“-Entscheidung potenzieller Kunden durchsetzen. Aus Sicht des Kunden ergibt sich durch SAAS eine neue Form der Softwarebeschaffung. Der Kunde muss sich zwischen der Eigenproduktion („make“), dem Kauf und Eigenbetrieb einer Softwarelösung („buy“) und der Nutzung eines Serviceanbieters („rent“) entscheiden. Ein Geschäftsmodell muss folglich den Kunden überzeugen können, von einer Eigenentwicklung oder dem Kauf und Eigenbetrieb abzusehen. 6. Danksagung Die Autoren danken den konstruktiven Hinweisen der Gutachter und insbesondere dem Bundesinnenministerium für Bildung und Forschung und seinem Projektträger im Deutschen Luft- und Raumfahrtzentrum e.V., welche diese Arbeit im Rahmen des Forschungsprojektes Mind-Bau (Förderkennzeichen 01FD0611) ermöglicht haben. 7. Literaturverzeichnis [1] CHOUDHARY, V.: Software as a Service: Implications for Investment in Software Development. In: 40th Annual Hawaii International Conference on System Sciences. 2007. [2] CORSTEN, H.: Dienstleistungsbetriebe. In: Handwörterbuch der Betriebswirtschaft. Eds.: R. Köhler, H.-U. Küpper, A. Pfingsten. Edition 6, Stuttgart 2007. [3] FANDEL, G.; BLAGA, S., Aktivitätsanalytische Überlegungen zu einer Theorie der Dienstleistungsproduktion, in: Zeitschrift für Betriebswirtschaft. Bd. 1 (2004). [4] GOLD, N. et al., Understanding Service-Oriented Software, in: IEEE Software. Bd. 21 (2004). [5] GRESCHLER, D.; MANGAN, T., Networking lessons in delivering Software as a Service - Part I, in: International Journal of Network Management. Bd. 12 (2002). [6] HALEVY, A. Y. et al.: Enterprise information integration: successes, challenges and controversies. In: Proceedings of the 2005 ACM SIGMOD international conference on Management of data. Baltimore, Maryland 2005. [7] HILL, T. P., On Goods and Services, in: Review of Income and Wealth. Bd. 23 (1977). [8] HIPPEL, E. V., Cooperation between Rivals: Informal Know-How Trading, in: Research Policy Bd. 16 (1987). [9] HOWELLS, J., Innovation, Consumption and Services: Encapsulation and the Combinatorial Role of Services, in: The Service Industries Journal. Bd. 24 (2004). 585 [10] ISERMANN, H., Logistik: Gestaltung von Logistiksystemen, 1998. [11] ISERMANN, H., Produktionstheoretische Fundierung logistischer Prozesse, in: ZfB-Ergänzungsheft. Bd. 4 (1999). [12] KAY, J. A., Foundations of Corporate Success: How Business Strategies add Value, Oxford 1993. [13] KÖHLER, T. R., Die leise Revolution des Outsourcing - IT-Services aus dem Netz, Frankfurt am Main 2007. [14] LASSILA, A., Taking a Service-Oriented Perspective on Software Business: How to move from Product Business to Online Service Business, in: IADIS International Journal on WWW/Internet. Bd. 4 (2006). [15] LIEBERMAN, M. B.; MONTGOMERY, D. B., First-Mover Advantages, in: Strategic Management Journal. Bd. 9 (1988). [16] MASAK, D., SOA?: Serviceorientierung in Business und Software, Berlin 2007. [17] MEFFERT, H.; BRUHN, M., Dienstleistungsmarketing: Grundlagen – Methoden – Konzepte, Wiesbaden 2006. [18] PAPAZOGLOU, M. P.: Service-Oriented Computing: Concepts, Characteristics and Directions. In: Fourth International Conference on Web Information Systems Engineering (WISE). 2003. [19] PORTER, M. E., Competitive Strategy. Techniques for Analyzing Industries and Competitors, New York 1980. [20] SÄÄKSJÄRVI, M.; LASSILA, A.; NORDSTRÖM, H.: Evaluating the Software as a Service Business Model: From CPU Time-Sharing to Online Innovation Sharing. In: Proceedings of the IADIS International Conference eSociety. 2005. [21] SICHTMANN, C.; GRIESE, I.; KLEIN, M.: Internationalisierung von Dienstleistungen-Erfolgsfaktoren in Abhängigkeit von unterschiedlichen Dienstleistungstypen. In: Neue Herausforderungen an das Dienstleistungsmarketing. Eds.: M. Benkenstein. 2008. [22] TRIPLETREE, Software as a Service: Changing the Paradigm in the Software Industry, Washington, DC 2004. [23] TURNER, M.; BUDGEN, D.; BRERETON, P., Turning Software into a Service, in: Computer. Bd. 36 (2003). [24] WERNERFELT, B., Brand loyalty and user skills, in: Journal of Economic Behavior and Organization. Bd. 6 (1985). 586 ORGANISATIONSKONZEPTE FÜR BUSINESS SERVICES Für den Erfolg des Unternehmens wird es im Wettbewerb immer wichtiger, ein flexibles Business Service Management zu unterhalten, um sich Änderungen möglichst schnell anpassen zu können. Hierfür werden einerseits moderne Organisationskonzepte für Business Services wie etwa ein Managementkonzept der serviceorientierten Architekturen erforderlich. Andererseits werden Methoden wie etwa ITIL benötigt, welche eine möglichst optimale Unterstützung der Geschäftsprozesse mittels Business Services fördern. Gleichzeitig eröffnen serviceorientierte Architekturen neue Möglichkeiten für Organisationskonzepte in Unternehmen und Unternehmensnetzwerken. Die wissenschaftliche Auseinandersetzung mit innovativen Organisationskonzepten und Methoden für Business Services steckt noch in den Kinderschuhen. Ziel dieses Tracks ist deshalb die Auseinandersetzung mit allen Aspekten von Business Services, angefangen von Organisationskonzepten und Infrastrukturen bis hin zu Geschäftsmodellen, Anwendungen, Wirtschaftlichkeitsbetrachtungen und ggf. neuen methodischen Ansätzen zu ihrer Analyse. Leitungsgremium: Arnold Picot, Ludwig-Maximilians-Universität München Rudolf Vetschera, Universität Wien Christof Weinhardt, Universität Karlsruhe (TH) (Federführender) Programmkomitee: Lutz Heuser, SAP Gehard Satzger, Universität Karlsruhe Horst Wildemann, Technische Univeristät München DATA GOVERNANCE: ORGANISATIONSKONZEPT FÜR DAS KONZERNWEITE DATENQUALITÄTSMANAGEMENT Kristin Weber, Boris Otto, Hubert Österle1 Kurzfassung Unternehmen die Datenqualität konzernweit organisieren wollen, stehen vor der Herausforderung, eine geeignete Form zu finden. Spezielle Anforderungen sind die Berücksichtigung unterschiedlicher Interessen und die Koordination aller Anspruchsgruppen. Bisher fehlen sowohl praktische Erfahrungen als auch wissenschaftliche Auseinandersetzungen, so dass Fragen nach der aufbauorganisatorischen Einordnung, der Abstimmung mit anderen Unternehmensbereichen und die Abhängigkeit vom Unternehmenskontext unbeantwortet bleiben. Der vorliegende Beitrag zeigt Möglichkeiten für die Organisation des Datenqualitätsmanagements auf und versucht Antworten auf die Fragen zu finden. Er schlägt die Einrichtung eines Shared Service Centers vor, stellt ein DataGovernance-Modell zur Definition konzernweiter Verantwortlichkeiten für Datenqualitätsmanagement vor und zeigt einen situativen Ansatz für die Gestaltung des Data-Governance-Modells auf. 1. Einführung Unternehmen müssen ihr Geschäftsmodell heutzutage laufend anpassen und weiter entwickeln: Globale Marktpräsenz erfordert weltweit harmonisierte Geschäftsprozesse, Kunden verlangen individuell auf ihre Bedürfnisse zugeschnittene Produkte, und Dienstleistungen werden nach den Prinzipien industrieller Abläufe erbracht. Diese Anforderungen betreffen zum einen die Unternehmensstrategie und die Architektur der Geschäftsprozesse, zum anderen sind Daten von hoher Qualität eine Grundvoraussetzung, um den Anforderungen gerecht zu werden. Probleme aufgrund mangelhafter Datenqualität treten in unterschiedlichen Unternehmensbereichen auf, angefangen bei ineffizienter Beschaffung über fehlendes Verständnis von einzelnen Datenobjekte bis zu Verzögerungen bei der Einführung neuer Produkte [20]. Der Grund ist, dass einige wenige Datenobjekte, zumeist Stammdaten wie z.B. Material, Kunde und Lieferant, in den meisten Geschäftsprozessen eines Unternehmens verwendet werden. Mangelnde Koordination zwischen den „Silos“ hierarchischer Organisationsformen tragen zu schlechter Datenqualität aus Gesamtkonzernsicht bei [9]. Neben fachlichen Anforderungen ist Datenqualität aber auch eine Voraussetzung für Service-Orientierte Architekturen. Wenn Services bereichsübergreifende Geschäftsprozesse 1 Universität St. Gallen, Institut für Wirtschaftsinformatik, CH-9000 St. Gallen, Müller-Friedberg-Strasse 8. 589 abbilden, muss gewährleistet werden, dass Daten aus verschiedenen Applikationen prozessweit die gleiche Definition zu Grunde liegt [4]. Bisher ist jeder Unternehmensbereich die Qualität „seiner“ Daten verantwortlich. Im besten Fall liegt eine übergreifende Verantwortung für Datenqualitätsmanagement (DQM) beim IT Management [10]. Ähnlich wie beim Risikomanagement, für welches seit einigen Jahren ein konzernweit integrierter Ansatz unter dem Schlagwort „Enterprise Risk Management“ erforscht wird [1], muss sich – aufgrund der oben skizzierten Herausforderungen – ein konzernweiter Ansatz für DQM etablieren. Konzernweites Datenqualitätsmanagement (Corporate Data Quality Management, CDQM) bezeichnet vor diesem Hintergrund das qualitätsorientierte Management der Daten mit dem Ziel hohe Datenqualität aus Gesamtkonzernsicht dauerhaft zu gewährleisten. CDQM ist eine Unterstützungsaufgabe die verschiedene Unternehmensbereiche tangiert. Zur konzernweiten Koordination der CDQM Aufgaben müssen Verantwortlichkeiten daher bereichsübergreifend zugeordnet werden. Das dafür erforderliche Organisationskonzept wird als Data Governance bezeichnet. Aufgrund der Neuartigkeit fehlen derzeit praktische Erfahrungen und Data Governance ist bisher wenig erforscht, so dass einige Fragen zur Organisation des CDQM offen bleiben: 1. Wo kann CDQM aufbauorganisatorisch eingeordnet werden? 2. Wie muss CDQM als Unterstützungsaufgabe intern organisiert werden? 3. Wie kann die Abstimmung mit anderen Unternehmensbereichen koordiniert werden? 4. Wie sind diese Fragen in Abhängigkeit vom Unternehmenskontext zu beantworten? Dieser Beitrag zielt darauf ab, Antworten auf diese Fragen zu finden und Konzepte für die Organisation des CDQM aufzustellen. Der Rest des Beitrages ist folgendermaßen aufgebaut. Kapitel 2 beschreibt Grundlagen des konzernweiten Datenqualitätsmanagements und zeigt den Einfluss der Organisation auf Datenqualität auf. Kapitel 3 zieht Analogien für die Organisation des CDQM auf Makro- und Mikroebene aus der Organisationstheorie (Fragen 1 & 2). Kapitel 4 beschreibt das Data-Governance-Modell als Konzept für die konzernweite Koordination des CDQM (Frage 3). Anschließend definiert Kapitel 5 in einem situativen Ansatz die Abhängigkeit von Data Governance zum Unternehmenskontext (Frage 4). Kapitel 6 fasst den Beitrag zusammen. 2. Stand der Wissenschaft und Praxis 2.1. Datenqualitätsmanagement Datenqualität ist definiert durch die Abhängigkeit der wahrgenommen Qualität von den Bedürfnissen des Nutzers und die Fähigkeit, die Anforderungen der beabsichtigten Nutzung in einer bestimmten Situation zu erfüllen („fitness for use“) [18, S.19; 25, S.6]. Datenqualität wird durch eine Menge von Qualitätsattributen (auch Qualitätsdimensionen) aus Sicht des Datennutzers beschrieben. Beispiele für diese Dimensionen sind Aktualität, Vollständigkeit, Konsistenz, Relevanz und Glaubwürdigkeit [25]. CDQM bezeichnet das qualitätsorientierte Management von Daten aus Gesamtkonzernsicht und umfasst die Verarbeitung, Speicherung, Pflege und Darstellung hochqualitativer Daten. CDQM geht damit über die reaktive Verbesserung der Datenqualität hinaus, die u.a. die Identifikation und Bereinigung von Daten mangelnder Qualität umfasst. Vielmehr beinhaltet CDQM die präventive Verbesserung der Datenqualität durch die Verankerung des Qualitätsprinzips in der Unternehmenskultur und einen kontinuierlichen Kreislauf von Prozessen zur Definition, Messung, Analyse und Verbesserung der Datenqualität [9; 24]. CDQM ist also keine Ansammlung von Einzelprojekten 590 mit begrenztem Fokus (z.B. einzelne Datenbanken oder -objekte), sondern stellt eine dauerhafte Unterstützungsaufgabe für fast alle Unternehmensbereiche dar. In den letzten Jahren ist eine Reihe von CDQM Ansätzen entstanden. Total Data Quality Management (TDQM), der aus dem TDQM Programm des MIT entstand, ist der verbreitetste Ansatz [24]. Andere bekannte Ansätze sind Total Quality data Management [9] und Datenqualität für das Informationszeitalter [18]. In diesen Ansätzen steht meist die Definition der Aufgaben des CDQM und nicht dessen Organisation im Vordergrund. Zwei Ansätze [9; 18] definieren Rollen und weisen diesen Aufgaben zu. Ähnlich behandeln praktische Ressourcen die Organisation des CDQM. Sie definieren zumeist neue Stellen oder Rollen oder sie weisen bestehenden Rollen bestimmte CDQM Aufgaben zu [vgl. 28]. Zur Beantwortung der o.g. Fragen sind diese Ressourcen nur bedingt geeignet, da sie alle einen universellen Ansatz verfolgen. Eine Analyse über die Wirkungsweise des Unternehmenskontexts, wie sie für die Gestaltung der IT-Organisation vorliegt [2; 22; 27], existiert für CDQM nicht. 2.2. Einfluss von Organisation auf Datenqualität Hierarchische Organisationsformen tragen zu schlechter Datenqualität aus Gesamtkonzernsicht bei. In der Regel haben nur die obersten Hierarchieebenen einen Überblick über den Gesamtprozess, so dass sich die untergeordneten Ebenen nur auf das Erreichen der jeweiligen Bereichsziele konzentrieren. Dies führt zu einer bereichsbezogenen Optimierung, die hinsichtlich übergreifender Ziele mangelhafte Ergebnisse liefert [17, S.237/263]. Um die einzelnen Bereiche herum werden sogenannte „Silos“ aufgebaut, in welchen andere Bereiche als Feinde und nicht als Partner angesehen werden [19, S. 6f]. Für Datenqualität folgt daraus, dass jeder Bereich die Daten in der für ihn optimalen Qualität vorhält und Teilaspekte des CDQM implizit in seiner täglichen Arbeit ausführt. Da aber insbesondere Stammdaten in mehreren Prozessen, in mehreren Bereichen und Hierarchieebenen verwendet werden, ist die Datenqualität für den Gesamtkonzern nicht gewährleistet [9, S. 376ff]. Diese Organisation führt zudem zu einer Vielzahl unterschiedlicher Vorgehensweisen und fehlenden CDQM Spezialisten [13, S.66]. Weiter ist die Datenerfassung typischerweise von der Datenverwendung organisatorisch getrennt. Mitarbeiter betrachten Stammdaten oftmals als „Abfallprodukt“ eines Prozesses, und wissen nicht, dass diese in Folgeprozessen eine wichtige Funktion haben [24], wie folgendes Beispiel zeigt. Das Stammdatum „Gleis XY“ entsteht im Prozess des Neubaus einer Bahnstrecke. Die Dokumentation des Gleises mit seinen Eigenschaften hat nicht höchste Priorität beim Bauleiter, da dieser anhand anderer Ziele, wie z.B. die pünktliche Fertigstellung der Bahnstrecke gemessen wird. Die nachfolgenden Prozesse, wie z.B. Instandhaltung, Anlagenbuchhaltung und Reporting, sind aber auf diese Daten angewiesen. Die Instandhaltung benötigt zur Wartung z.B. Lage, Länge und Material des Gleises. Für die Anlagenbuchhaltung ist das genaue Fertigstellungsdatum wichtig, da dieses die Basis für den Abschreibungsbeginn ist. Alle Gleise einer Region werden in Berichten zusammengefasst, aufgrund derer Entscheidungen auf höheren Hierarchieebenen getroffen werden. Aus den Kapiteln 2.1 und 2.2 ergeben sich somit folgende Anforderungen an die Organisation des CDQM: unternehmensspezifischer Ansatz mit Bezug zum Unternehmenskontext, gleichzeitige Berücksichtigung unterschiedlicher Interessen auf allen Unternehmensebenen, Aufbau von Spezialwissen an einer Stelle und die Koordination aller Anspruchsgruppen in einem unternehmensweiten Ansatz. 591 3. Organisationskonzepte für CDQM Dieser Beitrag betrachtet die Aufbauorganisation der Unterstützungsaufgabe CDQM auf Makround Mikroebene. Die Aufbauorganisation umfasst die Gliederung eines Unternehmens in Organisationseinheiten, die Verteilung der Aufgaben auf die Organisationseinheiten sowie die Koordination zwischen ihnen [11, S. 24]. Die Makroebene legt wesentliche Merkmale der Aufbauorganisation des Unternehmens fest und gibt durch grundsätzliche Regeln den Rahmen für die Organisation auf Mikroebene vor [11, S. 96ff]. Die Mikroebene definiert die interne Organisation der in der Rahmenstruktur definierten Unternehmensbereiche, z.B. durch Gliederung in Abteilungen und Stellen, Zuweisung von Aufgaben und Festlegung von Koordinationsmechanismen [11, S. 166ff]. Unterstützungsaufgaben bieten Dienstleistungen für die Aufrechterhaltung und Bewältigung der Kernaufgaben, während Kernaufgaben wie Produktion und Vertrieb für die langfristige Sicherung des Unternehmenserfolgs von kritischer Bedeutung sind, da sie einen wahrnehmbaren Kundennutzen stiften [13, S. 41]. 3.1. Makroebene In der Organisationstheorie werden seit einigen Jahren alternative Organisationskonzepte gesucht, da klassische Organisationsprinzipien wie Hierarchie, Bürokratie und Taylorismus Dysfunktionalitäten aufweisen [vgl. 17, S. 235ff]. Speziell die Organisation von Unterstützungsaufgaben als Zentralbereiche führt zu Nachteilen wie mangelnder Kundenorientierung, Inflexibilität gegenüber Veränderungen sowie fehlender Prozesssicht [13, S.65]. Modularisierung als neue Organisationsform zeichnet sich aus durch Prozessorientierung, Kundenorientierung, Abgeschlossenheit der Aufgabe, Bildung kleiner Einheiten, dezentrale Entscheidungskompetenz und Ergebnisverantwortung und nicht-hierarchische Koordinationsformen zwischen Modulen [17, S.231ff]. Ein Beispiel für modulare Organisationseinheiten sind Shared Service Center, welche für die Organisation der Unterstützungsaufgabe CDQM geeignet zu sein scheinen, da die nachfolgenden typischen Eigenschaften von Shared Service Centern auf CDQM zutreffen. Shared Service Center stellen primär Dienstleistungen für interne Kunden zur Verfügung, umfassen grundsätzlich Ausführungsaufgaben (d.h. keine bedeutsamen Entscheidungsaufgaben), werden nur punktuell in Kernprozesse einbezogen und ihre Dienstleistung wird von mehr als einer Organisationseinheit nachgefragt [13, S. 88f]. CDQM ist ein Prozess, der durch einen wissensorientierten Dienstleistungscharakter gekennzeichnet ist – ähnlich externen Beratungsleistungen. Durch die Zusammenlegung des Dienstleistungsangebots in einem „Center of Expertise“ können Spezialisierungsvorteile realisiert werden [13, S.89]. CDQM steht somit anderem Organisationseinheiten in seinem Spezialgebiet als Ratgeber und Koordinator zur Verfügung [17, S.247]. Mögliche Vorteile eines Shared Services Ansatzes liegen in der Senkung von Kosten durch die Erzielung von Skalenerträgen und die Bündelung eingesetzter Ressourcen, in der Erhöhung der Qualität des Prozessoutputs, in einem verbesserten Wissensmanagement, in der Erhöhung der Dienstleistungsbereitschaft und in der Schaffung eines internen Kunden-Lieferanten-Verhältnisses [13, S. 73ff]. Die Dysfunktionalitäten klassischer Organisationsprinzipien, die zu schlechter Datenqualität aus Konzernsicht führen (vgl. Kapitel 2.2), werden durch die Einrichtung eines Shared Service Centers für CDQM alleine nicht behoben. CDQM kann aber dazu beitragen, das Bewusstsein für die datenbedingten Abhängigkeiten der einzelnen Bereiche untereinander zu erhöhen, beispielsweise durch die Definition von konzernweiten Datenerfassungsstandards und Datenqualitätsprinzipien und die Messung von aus Konzernsicht definierter Datenqualität. Ein weiterer wichtiger Aspekt ist daher 592 die konzernweite Festlegung von Verantwortlichkeiten für Datenqualität, die über die reine Organisation des Unterstützungsaufgabe CDQM hinaus geht. Diesen Aspekt behandelt Kapitel 4. 3.2. Mikroebene Bei der Gestaltung des CDQM auf Mikroebene sind besonders wichtig die Verteilung von Entscheidungsbefugnissen, Verteilung von Weisungsbefugnissen und die Kommunikation innerhalb des CDQM und mit anderen organisatorischen Einheiten. Die konkrete Ausgestaltung wird u.a. von den Eigenschaften der Unterstützungsaufgabe CDQM bestimmt. CDQM kann als komplex, variabel und schlecht-definiert beschrieben werden [vgl. 11, S. 184ff]. Anforderungen an die Organisation des CDQM auf Mikroebene sind daher hoher Koordinationsbedarf, anpassungsfähige Organisationsstruktur, Arbeit in Teams, Einsatz von Spezialisten und Bildung von Gremien zur Entscheidungsfindung. Zentral für den Shared Services Ansatz ist die Schaffung marktähnlicher Leistungsbeziehungen zwischen dem Shared Service Center und seinen Kunden – den dienstleistungsnachfragenden Konzerneinheiten. Der Shared Service CDQM hat in diesem Sinne zwei Kunden. Der Konzern beauftragt den Shared Service im Rahmen der konzernweiten Datenqualitätsstrategie mit dem Aufbau des CDQM und der Verbesserung der Datenqualität aus Konzernsicht. Die Konzernleitung muss dem Shared Service daher – abweichend vom reinen Shared Service Center Ansatz – mit eingeschränkter Richtlinienkompetenz gegenüber anderen Organisationseinheiten ausstatten. Leistungen des CDQM sind in diesem Sinne u.a. die Etablierung konzernweiter Vorgaben und Standards sowie die Koordination aller beteiligten Unternehmensbereiche. Die Unternehmensbereiche hingegen fragen gezielt CDQM Dienstleistungen nach, z.B. wenn sie in einem Projekt die Datenqualität einer bereichsspezifischen Applikation verbessern wollen. CDQM unterstützt diese Kunden u.a. mit methodischem Vorgehen und der Durchführung von Einzelmaßnahmen und es agiert als Helpdesk für CDQM. Das Dienstleistungsangebot für die Unternehmensbereiche kann durch Leistungsvereinbarungen (Service Level Agreements, SLAs) institutionalisiert werden. SLAs umfassen in der Regel Beschreibung der Dienstleistungen, Laufzeit, Festlegung von Verantwortlichkeiten und Vereinbarung der Leistungsverrechnung [13, S.115]. Zur besseren Abstimmung der Anforderungen von Kunden und Lieferanten (z.B. der IT) und einer reibungslosen Zusammenarbeit können Gremien und spezielle Stellen mit Koordinationsaufgaben in den liefernden und empfangenden Unternehmensbereichen eingerichtet werden [11, S.188]. Wie diese Koordination gewährleistet werden kann, behandelt das nachfolgende Kapitel. 4. Data-Governance-Modell Durch die oben beschriebenen (stamm-)datenbedingten Abhängigkeiten zwischen einzelnen Unternehmensbereichen ist die reine aufbauorganisatorische Einordnung von CDQM nicht ausreichend für konzernweit hohe Datenqualität. Vielmehr müssen bestimmte Aufgaben verteilt wahrgenommen und die Abstimmung mit allen beteiligten Unternehmensbereichen gewährleistet werden. Für die konzernweite Definition der Aufgaben und Verantwortlichkeiten wird der Begriff „Data Governance“ verwendet. Data Governance identifiziert die konzernweiten Aufgaben im CDQM und legt fest, welche Rollen mit welchen Zuständigkeiten die Aufgaben des CDQM übernehmen. Data Governance legt also die Koordination des CDQM mit den anderen Unternehmensbereichen fest. Data Governance beinhaltet somit drei wesentliche aufbauorganisatorische Gestaltungselemente. (1) Data Governance benennt die Aufgaben, die im CDQM zu erfüllen sind. Hierzu gehören z.B. die Entwicklung von Datenqualitätsstrategie und -prinzipien, die Definition von Datenpflegepro593 zessen und -standards, die Festlegung von Datenqualitätszielgrößen und deren Integration in die Anreizsysteme des Unternehmens [15]. (2) Data Governance identifiziert die an der Ausführung der Aufgaben beteiligten Rollen. Bei den Rollen lassen sich Einzelrollen und Gremien unterscheiden. Neben den Rollen, die durch das Shared Service Center CDQM übernommen werden, sind insbesondere Data Stewards von Bedeutung [7; 9, S. 403ff]. Data Stewards sind spezielle Rollen mit Koordinationsaufgaben in den liefernden und empfangenen Konzerneinheiten. Sie tragen die CDQM Kultur in ihre jeweiligen Bereiche und setzen dort Standards und Prinzipien durch. Auf der anderen Seite leiten sie die bereichsspezifischen Anforderungen an CDQM weiter. Ein Gremium (z.B. „Data Quality Board“) entscheidet in Streitfällen bereichsübergreifende Themenstellungen und überwacht CDQM konzernweit [9, S. 414f; 21, S.20]. (3) Data Governance legt die Zuständigkeiten fest, mit denen die Rollen in der Aufgabenerfüllung involviert sind. Dazu kann beispielsweise die RACI-Notation (Responsible, Accountable, Consulted, Informed) verwendet werden. Die drei wesentlichen aufbauorganisatorischen Gestaltungselemente – Rollen, Aufgaben und Zuständigkeiten – können mithilfe eines Funktionendiagramms modelliert werden. Die Zeilen des Diagramms enthalten dann die Aufgaben, die Spalten die Rollen und die Zellen markieren die Zuständigkeiten. Die Konkretisierung der Gestaltungselemente in einem Funktionendiagramm ist das Data-Governance-Modell (vgl. Abbildung 1). Data Quality Board SSC CDQM Business Data Steward Technical Data Steward Datenqualitätsstrategie A R I I Datenpflegeprozesse I R C I Datenqualitätszielgrößen C A R I R C C Helpdesk … … Legende: R – Responsible; A – Accountable; C – Consulted; I – Inf ormed; SSC = Shared Service Center Abbildung 1. Data-Governance-Modell als Funktionendiagramm (Beispiel) Data Governance ist ein Organisationskonzept und als solches immer unternehmensspezifisch. Die vom Unternehmenskontext abhängige Gestaltung des Data-Governance-Modells bestimmt die Effektivität von CDQM. Diese Grundannahme des situativen Ansatzes der Theorie der Organisationsprinzipien [z.B. 6] wurde von bisherigen Publikationen zu Data Governance weitgehend vernachlässigt. Sie gehen von einem universellen Data-Governance-Ansatz aus und definieren Rollen und Verantwortlichkeiten, die für jedes Unternehmen gleichermaßen gelten sollen [z.B. 9; 21]. Das Data-Governance-Modell bildet den Rahmen für die unternehmensspezifische Gestaltung von Data Governance in Abhängigkeit vom Unternehmenskontext. Rollen und Aufgaben können auf Basis der universellen Data-Governance-Ansätze unternehmensspezifisch gestaltet werden. Kataloge mit typischen CDQM Aufgaben entstehen derzeit [z.B. 15]. Die Spezifität des Data-Governance-Modells wird vor allem durch die Verteilung der Zuständigkeiten bestimmt. Zwei Gestaltungsparameter verdeutlichen die Beziehung zwischen der Verteilung der Zuständigkeiten und dem Unternehmenskontext. Der Parameter Platzierung von Entscheidungsbefugnissen spannt ein Kontinuum zwischen einem streng zentralen Ansatz, in welchem alle Entscheidungsbefugnisse in einer zentralen CDQM Instanz lägen, und einem streng dezentralen Ansatz, in welchem alle Entscheidungen an die ausführenden Stellen delegiert würden [vgl. 2; 3]. Der 594 Parameter Koordination von Entscheidungskompetenzen definiert das Kontinuum zwischen einem hierarchischen Ansatz, welcher sich durch eine vertikale Aufgabendelegierung, Kommunikation, Kontrolle und Überwachung auszeichnet, und einem kooperativen Ansatz, welcher formelle und informelle horizontale Koordinationsmechanismen einsetzt [vgl. 16]. Die Ausprägung dieser zwei Gestaltungsparameter beeinflusst die Zuordnung der Zuständigkeiten im Funktionendiagramm. Der folgende Abschnitt erläutert den Zusammenhang zwischen Unternehmenskontext, Gestaltungsparametern und CDQM Erfolg in einem situativen Ansatz. 5. Situativer Ansatz für Data Governance Der situative Ansatz für Data Governance beruht auf der Theorie der Organisationsprinzipien (auch Kontingenztheorie, engl. contingency theory). Die Theorie besagt, dass die Beziehung zwischen der Eigenschaft einer Organisation und der Effektivität der Organisation von Einflussfaktoren (engl. contingencies) abhängig ist [6]. Eine geeignete Organisationsstruktur (z.B. hierarchisch oder funktional), welche zu den Einflussfaktoren (z.B. Unternehmensgröße, -strategie) „passt“ (engl. fit), soll einen positiven Effekt auf die Effizient, Rentabilität oder Innovationsrate des Unternehmens haben. Im situativen Ansatz für Data Governance ist die Organisationseigenschaft die unternehmensspezifische Gestaltung des Data-Governance-Modells. Das Modell wird durch die Ausprägung der zwei Gestaltungsparameter „Platzierung von Entscheidungsbefugnissen“ und „Koordination von Entscheidungskompetenzen“ repräsentiert. Der Unternehmenskontext wird durch interne und externe Einflussfaktoren definiert. Die Einflussfaktoren beeinflussen die Beziehung zwischen dem DataGovernance-Modell und dem Erfolg von CDQM. Unternehmensspezifisches Data Governance Modell Unternehmensstrategie Wettbewerbsstrategie Diversifikationsbreite Prozessharmonisierung Organisationsstruktur Marktregulierung Art der Entscheidungsfindung Platzierung von Entscheidungsbefugnissen Erfolg des CDQM Koordination von Entscheidungskompetenzen Abbildung 2. Modell des situativen Ansatzes für Data Governance Die sieben Einflussfaktoren sind: Unternehmensstrategie, Aufbauorganisation, Wettbewerbsstrategie, Diversifikationsbreite, Prozessharmonisierung, Marktregulierung, und Art der Entscheidungsfindung. Die ersten sechs Faktoren wirken auf die Beziehung zwischen dem Gestaltungsparameter „Platzierung von Entscheidungsbefugnissen“ und dem Erfolg von CDQM; der letzte Faktor wirkt auf die Beziehung zwischen dem Gestaltungsparameter „Koordination von Entscheidungskompetenzen“ und dem Erfolg von CDQM. Die Einflussfaktoren bestimmten den “Fit” zwischen der Gestaltung des Data Governance Modells und dem Erfolg des CDQM in dem Unternehmen, d.h. die Effektivität der Organisation. Was letztendlich Erfolg in diesem Zusammenhang bedeutet, muss 595 jedes Unternehmen für sich definieren. Das gesamte Modell des situativen Ansatzes für Data Governance ist in Abbildung 2 dargestellt. Der Stand der Wissenschaft und Praxis liefert keine Aussagen, von welchen Faktoren die konkrete Ausgestaltung von Data Governance abhängt. Untersuchungen zur Wirkungsweise der Einflussfaktoren auf Governance-Modelle existieren jedoch für das IT-Management. Der hier vorgestellte situative Ansatz ist ein erster Versuch der Anwendung der Kontingenztheorie auf Data Governance und basiert auf den Erkenntnissen über die Einflussfaktoren aus der IT-Governance-Forschung und deren Wirkung auf die Ausgestaltung der IT Organisation. Die grundsätzliche Wirksamkeit dieser Einflussfaktoren auf Data Governance konnte auf Grundlage mehrerer Fallstudien und Experteninterviews bereits bestätigt werden [s. 26]. Die in Tabelle 1 dargestellten Faktoren beeinflussen die Beziehung zwischen der Platzierung von Entscheidungsbefugnissen und dem Erfolg des CDQM. Für jeden Einflussfaktor zeigt Tabelle 1 eine Definition und Referenzen der IT-GovernanceForschung. Sie stellt die jeweiligen Ausprägungen des Faktors dar, welche für einen zentralisierten, dezentralisierten und ggf. gemischten CDQM Ansatz geeignet sind. Tabelle 1. Einflussfaktoren auf die Platzierung von Entscheidungsbefugnissen Einflussfaktor Unternehmensstrategie: Vorherrschendes Kriterium der Effizienzbewertung [27] Diversifikationsbreite: Grad der Ähnlichkeit der Produkte und Märkte eines Konzerns [2; 3; 22] Organisationsstruktur: Grad der Zentralisierung von Unternehmen [8; 14; 22] Wettbewerbsstrategie: Art des Engagements in Produkt- / Marktentwicklung und Stabilitätsbedürfnis [23] Prozessharmonisierung: Grad der Harmonisierung der Geschäftsprozesse [20] Marktregulierung: Grad der Marktregulierung durch Behörden und gesetzliche Auflagen [1; 12] Zentralisiert Gewinn Große Ähnlichkeit Zentralisiert Gemischt Anlagenausnutzung - Dezentralisiert Wachstum - Geringe Ähnlichkeit Dezentralisiert Verteidiger Analytiker Pionier Global harmonisiert Stark reguliert - Lokale Prozesse - Nicht reguliert Data Governance muss auch die Art der Entscheidungsfindung und die vorherrschende Kultur des Unternehmens berücksichtigen. Tabelle 2 stellt diesen Faktor und seinen Einfluss auf die Beziehung zwischen der Koordination von Entscheidungskompetenzen und dem Erfolg des CDQM dar. Tabelle 2. Einflussfaktoren auf die Koordination von Entscheidungskompetenzen Einflussfaktor Art der Entscheidungsfindung: Informelle Regeln der Entscheidungsfindung [5] Kooperativ Konsensbildung Hierarchisch Kultur der Macht und Kontrolle 6. Diskussion und Zusammenfassung Unternehmen die Datenqualität konzernweit managen wollen, stehen vor der Herausforderung, eine geeignete Organisationsform für CDQM zu finden. Spezielle Anforderungen sind der Bezug zum Unternehmenskontext, die Berücksichtigung unterschiedlicher Interessen und die Koordination aller Anspruchsgruppen. Bisher fehlen sowohl praktische Erfahrungen als auch wissenschaftliche Auseinandersetzungen, so dass Fragen zur Organisation des CDQM unbeantwortet bleiben. Der 596 vorliegende Beitrag zeigt anhand der Organisationstheorie Möglichkeiten für die Organisation des CDQM auf und versucht Antworten auf die Fragen zu finden. Auf der Makroebene kann CDQM als Shared Service Center organisiert sein, welches Dienstleistungen für andere Konzerneinheiten erbringt. Um hohe Datenqualität aus Gesamtkonzernsicht sicherzustellen, ergibt sich auf der Mikroebene ein hoher Koordinationsbedarf mit Kunden und Lieferanten des Shared Services. Das Data-Governance-Modell definiert Verantwortlichkeiten konzernweit und gewährleistet somit Koordination und Interessensausgleich. Durch das Modell können Unternehmen Data Governance in Abhängigkeit vom Unternehmenskontext gestalten. Der hier vorgestellte situative Ansatz für Data Governance gibt Hinweise auf die Wirkungsweise des Kontexts auf das Modell. Der Beitrag stellt organisatorische Fragestellungen in den Vordergrund und zeigt deren Zusammenhang mit CDQM und Datenqualität auf. Die „richtige“ Organisation allein ist jedoch nicht ausreichend um konzernweit hohe Datenqualität zu gewährleisten. Die Wirksamkeit der Organisation hängt auch davon ab, ob es gelingt, Bewusstsein für Datenqualität in der Kultur des Unternehmens zu verankern. Organisatorische Veränderungen müssen grundsätzlich durch Change Management unterstützt werden. Literaturverzeichnis [1] ABRAMS, C., VON KÄNEL, J., MÜLLER, S., PFITZMANN, B., RUSCHKA-TAYLOR, S.: Optimized enterprise risk management, in: IBM SYSTEMS JOURNAL, Vol. 46, 2007, pp. 219-234 [2] BROWN, C.V.: Examining the Emergence of Hybrid IS Governance Solutions: Evidence from a Single Case Site, in: Information Systems Research, Vol. 8, 1997, pp. 69-94 [3] BROWN, C.V., MAGILL, S.L.: Reconceptualizing the Context-Design Issue for the Information Systems Function, in: Organization Science, Vol. 9, 1998, pp. 176-194 [4] BUTLER, D.: MDM as a Foundation for SOA, Oracle Corporation, Redwood Shores 2007 [5] DALLAS, S.: Six IT Governance Rules to Boost IT and User Credibility, Gartner Research, Stamford, CT 2002 [6] DONALDSON, L.: The Contingency Theory of Organizations. Sage Publications, Thousand Oaks, CA, USA 2001 [7] DYCHÉ, J.: A Data Governance Manifesto: Designing and Deploying Sustainable Data Governance, Baseline Consulting, Los Angeles, California 2007 [8] EIN-DOR, P., SEGEV, E.: Organizational Context and MIS Structure: Some Emprirical Evidence, in: MIS Quarterly, Vol. 6, 1982, pp. 55-68 [9] ENGLISH, L.P.: Improving Data Warehouse and Business Information Quality. John Wiley & Sons, Inc., New York, NY 1999 [10] FRIEDMAN, T.: Gartner Study on Data Quality Shows That IT Still Bears the Burden, Gartner Group, Stamford 2006 [11] GROCHLA, E.: Grundlagen der organisatorischen Gestaltung. Poeschel, Stuttgart 1982 [12] GRUNDEI, J.: Examining the Relationship Between Trust and Control in Organizational Design, in: Burton, R.M., Eriksen, B., Håkonsson, D.D., Snow, C.C. (eds.): Organization Design. Springer Science+Business Media LLC, Boston, MA 2006 pp. 43-65 597 [13] KAGELMANN, U.: Shared Services als alternative Organisationsform: Am Beispiel der Finanzfunktion im multinationalen Konzern. Gabler, Wiesbaden 2001 [14] OLSON, M.H., CHERVANY, N.L.: The Relationship Between Organizational Characteristics and the Structure of the Information Services Function, in: MIS Quarterly, Vol. 4, 1980, pp. 57-68 [15] OTTO, B., WENDE, K., SCHMIDT, A., OSL, P.: Towards a Framework for Corporate Data Quality Management, in: Toleman, M., Cater-Steel, A., Roberts, D. (eds.): 18th Australasian Conference on Information Systems. The University of Southern Queensland, Toowoomba, Australia 2007, pp. 916-926 [16] PETERSON, R.: Crafting Information Technology Governance, in: Information Systems Management, Vol. 21, 2004, pp. 7-22 [17] PICOT, A., REICHWALD, R., WIGAND, R.T.: Die grenzenlose Unternehmung: Information, Organisation und Management. Gabler, Wiesbaden 2003 [18] REDMAN, T.C.: Data Quality for the Information Age. Artech House, Boston, London 1996 [19] RUMMLER, G.A., BRACHE, A.P.: Improving Performance - How to Manage the White Space on the Organizaion Chart. Jossey-Bass, San Francisco 1995 [20] RUSSOM, P.: Master Data Management: Consensus-Driven Data Definitions for Cross-Application Consistency, The Data Warehousing Institute, Seattle 2006 [21] RUSSOM, P.: Taking Data Quality to the Enterprise through Data Governance, The Data Warehousing Institute, Seattle 2006 [22] SAMBAMURTHY, V., ZMUD, R.W.: Arrangements for Information Technology Governance: A Theory of Multiple Contingencies, in: MIS Quaterly, Vol. 23, 1999, pp. 261-290 [23] TAVAKOLIAN, H.: Linking the Information Technology Structure With Organizational Competitive Strategy: A Survey., in: MIS Quarterly, Vol. 13, 1989, pp. 308-318 [24] WANG, R.Y., LEE, Y., PIPINO, L., STRONG, D.: Manage Your Information as a Product, in: Sloan Management Review, Vol. 39, 1998, pp. 95-105 [25] WANG, R.Y., STRONG, D.: Beyond Accuracy: What Data Quality Means to Data Consumers, in: Journal of Management Information Systems, Spring 1996, Vol. 12,, 1996, pp. 5-34 [26] WEBER, K., OTTO, B., ÖSTERLE, H.: One Size Does Not Fit All – A Contingency Approach to Data Governance, in: accepted at: ACM Journal of Data and Information Quality, Vol. 2009, pp. [27] WEILL, P., ROSS, J.: A Matrixed Approach to Designing IT Governance, in: MIT Sloan Management Review, Vol. 46, 2005, pp. 25-34 [28] WENDE, K.: A Model for Data Governance – Organising Accountabilities for Data Quality Management, in: Toleman, M., Cater-Steel, A., Roberts, D. (eds.): 18th Australasian Conference on Information Systems. The University of Southern Queensland, Toowoomba, Australia 2007, pp. 417-425 598 STRATEGIC BEHAVIOR IN SERVICE NETWORKS UNDER PRICE AND SERVICE LEVEL COMPETITION Clemens van Dinther1, Benjamin Blau2, Tobias Conte1 Abstract Decentralized service providers specialize on contributing their core competency to an overall goal. This paper focuses on the strategic behavior of service providers within Service Value Networks. We present an abstract model as a formalization of a service value network. The model comprehends an auction-based mechanism design to allocate multiattribute service offers within the network and to determine prices for complex services. Furthermore we study the mechanism theoretically as well as on a simulation basis in order to analyze strategic behavior of service providers within service value networks. 1. Introduction A novel service-oriented economy following strategies such as differentiation, customer-centricity and flexible business is observed in today's service markets. Previous ideas of static value chains are giving way to highly dynamic service value networks formed by many services from different specialized service providers. Companies employ differentiation strategies by shifting resources to focus on their core business. An example is Xignite3 that specializes on providing a broad catalog of financial Web services. Other companies such as Jamcracker4 provide platforms to foster a demand and supply match between service providers and service resellers that offer value added services to customers. In theory, the complex products or services could be produced by a single vertically integrated company. But in this case the company could not focus on its core competencies, having to cover the whole spectrum of the value chain. Additionally, it would have to burden all the risks in a complex, changing and uncertain environment by itself. This is why companies tend to engage in networked value creation which allows participants to focus on their strengths. At the same time rapid innovation in the ICT sector enabled promising opportunities in B2B communication supporting this trend. However, especially in complex and highly dynamic industries, forming value networks – especially business webs with their open structure – is more than an attractive strategic alternative. Prominent advocates of this new paradigm are [19, 12, 21, 18]. Business webs bring together mutually networked, permanently changing legally independent 1 Forschungszentrum Informatik Karlsruhe (FZI), Haid-und-Neu-Str. 10-14, D-76131 Karlsruhe Institute for Information Systems and Management, Universität Karlsruhe (TH), Englerstr. 14, 76131 Karlsruhe 3 http://xignite.com 4 http://www.jamcracker.com/ The project was funded by means of the German Federal Ministry of Economy and Technology under the promotional reference “01MQ07012”. 2 599 actors in customer centric, mostly heterarchical organizational forms in order to create (joint) value for customers. Specialized firms co-opetitively contribute modules to an overall value proposition under the presence of network externalities. In our work we present an abstract model as a formalization of a Service Value Network. The model comprehends an incentive compatible auction-based mechanism design to allocate multiattribute service offers within the network and to determine prices for complex services. Incentive compatibility makes revealing the true type (service configuration and internal costs) a weakly dominant strategy for all service providers. Since incentive compatibility only holds for a one shot game, we study strategic behavior that might improve the SP payoffs. The strategic behavior is studied by means of a simulation-based analysis of two different strategies for service providers within Service Value Networks. We analyze two environmental settings, a price competitive environment as well as competition on basis of service levels. Based on our results we discuss strategic recommendations for service providers depending on how they are situated within the network. The paper is structured as follows: The next section provides a literature overview on path-based procurement auctions and mechanism design in general as well as concepts for trading different kind of services specifically. Subsequently, we proceed with the introduction of a formal model and a mechanism design for allocating and pricing of complex services. The strategic behavior regarding the two strategies deviating from the weak dominant strategy is then analyzed using a simulation approach. We conclude the paper with a summary and an outlook to ongoing research and open questions. 2. Related Work The principles of mechanism design to coordinate self-interested participants in perusing an overall goal are introduced in [16]. These mechanisms mainly apply to auctions of one or multiple units of one good. Thus, the basic auction mechanisms are not suited for auctioning heterogeneous combined services such as complex services. Heterogeneous goods and bundles are usually traded in combinatorial auctions. Nevertheless, combinatorial auctions yield major drawbacks regarding computational feasibility that result from an NP-hard complexity. Computational feasibility implies a trade-off between optimality and valuable mechanism properties such as incentive compatibility. [1, 17] propose approximate solutions for incentive compatible mechanisms to overcome issues of computational complexity. Path auctions as a subset of combinatorial auctions reduce complexity through predefining all feasible service combinations in an underlying graph topology [4]. As a subset of combinatorial auctions, path auctions are introduced in [8, 13] and [2]. In their work, path auctions are utilized for pricing and routing in networks of resources such as computation or electricity. Application-related issues of auctions to optimal routing are examined in [6, 9] and [15]. All of these approaches deal with the utility services layer according to the service classification in [3, 5] and hence do not cover the problems related to elementary services and complex services. The strategy an agent follows when placing bids in an auction is induced by the mechanism’s properties. In incentive compatible auctions agents are incentivized to choose the strategy of revealing their true type. Incentive compatible mechanisms are firstly introduced and extensively investigated by [10, 11, 20]. Most of the research has been done with respect to truth-telling of prices and valuations. In the field of designing incentive compatible mechanisms, that induce truthtelling of non-functional properties of goods or services in multiattribute auctions, a lot of investigation is still missing. Traditional approaches in the area of multiattribute combinatorial auctions are not quite suitable to enable the trade of composite services. Auctions for composite services are much more complex than simple procuring auctions, where the suppliers themselves offer a full solution to the procurer. In composite services, this is not the case, as a flawless service execution and therefore the requester's valuation highly depends on the accurate sequence of its 600 functional parts, meaning that in contrary to service bundles, composite services only generate value through a valid order of their components. 3. Abstract Model & Mechanism Design The abstract model is a formalization of a service value network containing a service requester, service providers and service offers. It captures the networks characteristics using a formal notation. The model comprehends an auction-based mechanism design to allocate service providers within the network and to determine prices for complex services. 3.1. Service Value Network A Service Value Network is represented by an k -partite, directed and acyclic graph G = (V , E ) . Each partition y1 ,K , yK of the graph represents a functionality cluster that entails services that provide the same functionality. The topology information is public knowledge. The set of N nodes V = {v1 ,K , vN } represents the set of Service Offers with v is an arbitrary service offer. Services are offered by a set of Q Service Providers S = {s1 ,K , sQ } with s is an arbitrary service provider. Figure 1 Service Value Network Model The ownership information σ : S → V that reveals which service provider owns which service within the network is public knowledge. There are two designated nodes vs and v f that stand for source and sink in the network. The set of M edges E = {e1 ,K , eM } denotes service invocations such that eij represents an invocation of service j by service i . A service configuration Aj of service j is fully characterized by a set of attributes Aj = {a1j ,K , a Lj } where a lj is an attribute value of attribute type l of service j 's configuration. Let furthermore cij ( Aj ) denote a cost function that maps service j 's configuration to corresponding costs that occur for invocation by service i such that c : A → R . Let F denote the set of all feasible paths from source to sink. Every f ∈ F represents a possible instantiation of the complex service. F−i represents the set of all feasible paths from source to sink without node i and its incoming and outgoing edges. Let Fi be the set of all feasible paths from source to sink that entail node i such that F = Fi ∩ F− i . For illustration purpose, Figure shows a formalization of a Service Value Network with service offers V = {v1 ,K , v4 } . Every feasible path from source to sink represents a possible realization of the overall complex service. 601 3.2. Mechanism Design The goal of the service requester is to maximize her utility U . Therefore she has to solve the problem of allocating a path f * within the complex service network that yields the highest overall utility. Let Uf denote the overall utility of path f . (1) o := argmax f ∈F Uf Let U* denote the utility of the winning path meaning the utility of a path f * that maximizes the requesters utility U . Let U−*s denote the utility of a path f −*s that yields a maximum utility for the service requester in the reduced graph without every service owned by service provider s and its incoming and outgoing edges. Every service provider s receives a payment or transfer t s = ∑ i∈τ ( j ), j∈σ ( s ),e ∈ f * t sj for all services she ij owns which are on the winning path. A payment t for service j corresponds to the monetary s j equivalent of the utility gap Δu j between the winning path and second best path. In other words a monetary equivalent to the utility service j contributes to the overall utility of the complex service. This monetary equivalent represents the price that service provider s could have charged without losing her participation in the winning allocation. (2) t sj := pij + ( U* − U−*s ) Consequently the payment function t s for service provider s is defined as ⎧ ∑ ∑ pij + ( U* − U−*s ), if eij ∈ o ⎪ s t := ⎨ j∈σ ( s ) i∈τ ( j ) (3) ⎪⎩0, otherwise Costs c s that service provider s has to bear for performing offered and allocated services result accordingly: ⎧ ∑ ∑ cij ( Aj ), if eij ∈ o ⎪ s (4) c := ⎨ j∈σ ( s ) i∈τ ( j ) ⎪⎩0, otherwise 3.3. Bidding Language As a formalization of information objects which are exchanged during auction conduction we introduce a bidding language for requesters and providers. Our formalization assures compliance with the WS-Agreement specification in order to enable realization in decentralized environments such as the Web. A service requester wants to purchase a complex service f which is characterized by a configuration A f . The importance of certain attributes and prices of a requested complex service is idiosyncratic and depends on the preferences of the requester. The requester's preferences are represented by a utility function U of the form: (5) Uf (α , Λ, A , P ) = α S ( A f ) − T f T f denotes the sum of all transfer payments the requester has to transact to service providers that contribute to the complex service such that T f = ∑t eij ∈ f 602 j . The configuration A f of the complex service is the aggregation of all attribute values of contributing services on the path f such that A f = (A 1f ,K , A fL ) with A fl = ⊕eij ∈ f a lj . The aggregation of attributes values depends on their type (i.e. encryption can be aggregated by an AND operator whereas response time is aggregated by a ⎛ L ⎞ sum operator). The scoring rule S ( A f ) = ⎜ ∑ λl A f l ⎟ represents the requester’s valuation for a ⎝ l =1 ⎠ configuration A f of the complex service represented by path f . The scoring rule is specified by a set of weights Λ = {λ1 ,K , λL } with ∑ L l =1 λl = 1 that defines the requester’s preferences of each attribute type. To assure comparability of attribute values from different attribute types the aggregated attribute values A f l are mapped on an interval [0;1] . T f represents the overall price of the complex service. α can be interpreted as the willingness to pay for a optimal configuration S ( A f ) = 1 based on the requester’s score. In other words α defines the substitution rate between configuration and price based on the requester’s preferences. Definition 1. MULTIATTRIBUTE SERVICE REQUEST A request for a complex service is a triple of the form R := (G, F , α , Λ, Γ) (6) with G represents a complex service network, F represents all feasible paths from source to sink that form a possible instantiation of a complex service, Λ the requester’s preferences and α the willingness to pay. Γ denotes the set of lower and upper boundaries for each attribute type. A service offer consists of an announced service configuration Aj and a corresponding price bid pij that a service provider wants to charge for service j being invoked depending on the predecessor service i such that bij (eij ) = ( Aj , pij ) is a service offer bid for invocation of service j which interoperable with a predecessor service i with b : E → A × R . A service provider s bids for all incoming edges to every service she owns. Definition 2. MULTIATTRIBUTE SERVICE OFFER A multiattribute service offer is a set of bids of the form (7) ⎧b (e ) = ( Aj , pij ), i ∈τ ( j ), j ∈ σ ( s) B s := ⎨ ij ij otherwise ⎩0, with τ (v) denotes the set of all predecessor services to service v with τ :V → V and σ ( s) the set of all services owned by service provider s . 4. Strategic Alternatives The proposed mechanism is incentive compatible for a one shot, i.e. it is a weak dominant strategy to bid the true cost. We assume that participants cannot communicate directly in a non-iterated 603 game. In contrast, the iterated game gives participants the opportunity to tacitly collude through their bidding behavior. Consider the following cases: 1. All service providers (SP) submit bids at 10% above their true cost. The allocation remains the same but the SPs receive a higher payment since the claimed costs are higher and the individual utility surplus remains equal. As such, at least the allocated SP wished that everyone submits higher bids. 2. For those SP that are not allocated it is beneficial to submit bids at their true cost in order to produce a higher utility, and as such, increase the likelihood of being allocated. 3. Let SP i being allocated at true cost and let SP i be the only SP submitting a bid above its true valuation. Due to the higher costs the utility the SP generates decreases and as such the likelihood of being allocated also decreases. If SP i is allocated anyway the payment decreases due to the smaller difference of the utility surplus. As such, it is not beneficial for SP i to submit cost above the true valuation. The situation changes if other SPs also submit cost above the true valuation since the utility difference might increase. In that case submitting higher costs can be beneficial. 4. Let SP i submit bid at true valuation and being allocated. Let SP j submit bids above the true valuation and being part of the second best allocation possibility. This bidding behavior will lead to a higher payment for SP i. As such, SP i prefers other SPs to submit bids above their true cost. We investigate this strategic decision problem by means of simple agent-based simulations. Inspired by the work of [14] we implement two simple strategies, probe-and-adjust (PA) and adjust-dependent-on-own-and-cluster-return (AOCR). Both strategies are reactive and do not implement any sophisticated learning algorithm. In so far, we follow a pure agent-based approach [7]. 4.1 Strategies Each SP has four action alternatives. She can either bid the true cost or increase the bid up to four times by discrete steps at 0.03 currency units. In total each SP has five bid alternatives, true cost or true cost + i times 0.03 and {i=1,.., 4}. 4.1.1 Probe and Adjust (PA) The first reactive strategy is called Probe-and-Adjust. Those SP which are allocated increase the bid at one discrete step as long as they drop of the best path or they reach the upper cost limit (true cost + 0.12 currency units). All SP which are not allocated decrease the bid by one discrete cost step until they are either allocated or they bid their true cost. 4.1.2 Adjust Dependent on Own and Cluster Return (AOCR) The second reactive strategy considers not only the individual return but also the market returns of the direct competitors in the same functional cluster. The aim is to maximize cluster return but not on own cost, i.e. we identify four cases, (1) actual cluster return is greater than the one the round earlier and SP i (a) is allocated and (b) SP is not allocated, as well as (2) the cluster payment is equal or lower than the one the round earlier and SP i (a) is allocated and (b) is not allocated respectively. Dependent on the described situation the SP take the following actions: (1a) SP i increases her bid by one discrete step, (1b) SP i does not change her bid, (2a) SP i does not change her bid, (2b) SP i decreases her bid by one discrete step. 604 4.2 Hypothesis development We study the results of strategic behavior under two competitive situations, price competition (PC) and quality competition (QC). In the price competition scenario all SP of one cluster offer their services at the same quality level but different price levels, i.e. the true costs of the SP differ slightly. Since competition takes place not only on prices but also on quality the offered services differ additionally in quality of one service attribute in the quality competition scenario. Let all SP in the network follow the PA strategy in the PC scenario we expect that prices will reach the true valuation equilibrium (when all SP bid their true valuation). In contrast, we expect prices to reach a level between the true valuation equilibrium and the high bid equilibrium (when all SP submit bids at the highest possible level) while all SP follow the AOCR strategy in the PC scenario. We expect a different picture for the QC scenario. Since the quality level largely impacts the service requesters’ utility we expect that SP can exploit their competitive advantage by submitting higher bids which will lead to higher payments on average. Thus, we derive the following hypothesis: • • • • • H1: In the PC scenario with only PA strategies payments will converge to the true valuation equilibrium H2: In the PC scenario with only PA strategies the deviation from the weak dominant strategy will be low, i.e. submitting the true valuation is the most frequently chosen strategy. H3: In the QC scenario the diversification on the basis of service quality decreases competition, and as such, will lead to a higher number of deviators from the weak dominant strategy (truth telling). H4: In the QC scenario the deviation from truth telling leads to higher payments for allocated SP. H5: AOCR strategy leads to higher payments of the allocated services compared to the PA strategy. 4.3 Simulation Model We apply a simulation approach to study these questions. We model the problem as a n-person game in which each node represents a service offer. We assume that SPs only own a single service. As such, we use the terms node and SP synonymously. Each SP follows one of the reactive strategies which it is assigned at the beginning of the simulation run. Thus, in each period t ∈ {1,K , T } each node i observes the own payoff r as well as the payoff r* of the best node in the cluster. The payoff r resulting from the action chosen is dependent on the topology of the network, the service requests, the offers of all nodes (including functionality and price). Regarding one topology all these factors are stochastic. As such, the node’s action decision does not solely control the payoff. Thus, the decision problem of the nodes is comparable to an n-armed bandit problem. After having decided on an action, the best path is computed as well as the payoffs for all nodes on the path. The first action is chosen arbitrarily. 4.4 Simulation Settings We conduct simulations with N = 20 nodes in 4 arbitrary chosen topologies with 5 functionality clusters and a density of 0.8 . This results in 20 simulation runs. Each simulation run has T=50 periods. The cost per link are drawn from a uniform distribution in the interval [0.5, 0.7] and assigned for each simulation run. Attribute values for response time ( ∈ [0;1] ) and encryption ( ∈ [0;1] ) are assigned at a fix value of 0.5. Link costs and attribute values stay fix over all simulation periods but SP can decide to submit bids above their true cost. The service requester’s 605 preferences are also fixed for each of the simulation periods in a way that he weights attribute values and price equally. Furthermore total path prices, and consequently, overall path utilities are normalized to the interval [0;1] . We run simulations for four different scenarios: (1) all nodes offer the same service levels and use the PA strategy (PC-PA), (2) all nodes use PA but offer different service levels for the attribute “response time” (QC-PA), (3) all nodes follow the AOCR-strategy and offer the same service levels (PC-AOCR), and (4) the nodes offer different service levels for the attribute “response time” and all follow the AOCR-strategy (QC-AOCR). 4.5 Results and Assessment First, we analyze descriptive parameters. Table 1 displays the average values of the sum of payments to the SP in the network. We compare the total-network payments for all SP submitting their true valuation and compare it to the total-network payments achieved by the SP which were also allowed to deviate from the true valuation. The received surplus (achieved payoffs – true valuation payoffs) is positive in all four scenarios which supports our assumption that collusion might be beneficial. Additionally, we observe that the total surplus is lower in the AOCR scenarios compared to PA scenarios. Besides the total networks payoffs it is also important to study the individual payments especially of those SP who would be allocated while playing the true valuation. Table 2 displays the average individual payoffs as well as the average individual payoff while playing the true valuation strategy. Table 1 Aggregated Payments of all SPs in the Network mean payments total-network (truth-telling) mean payments total-network (achieved) mean surplus total-network (achieved) surplus (%) PA-PC 2,899 2,971 0,072 2,48% PA-QC 3,166 3,309 0,142 4,49% AOCR-PC 2,899 2,943 0,043 1,49% AOCR-QC 3,166 3,203 0,037 1,16% Figure 1 Development of Aggregated SP Payments (PA-PC Setting) Table 2 Individual Payoffs of Thruth-Telling SPs mean payments per allocated SP (true valuation) mean payments allocated SP (achieved) mean surplus allocated SP (achieved) surplus (%) PA-PC 0,580 0,570 -0,009 -1,60% 606 PA-QC 0,633 0,642 0,009 1,44% AOCR-PC 0,580 0,593 0,014 2,35% AOCR-QC 0,633 0,655 0,022 3,40% The comparison of the average individual payoffs draws a different picture compared to the comparison of the aggregated payoffs. Following the PA-strategy in a price competition environment even leads to negative payoffs. Payoffs are larger for the AOCR-strategy. We also observe that the quality competition leads to higher individual payments on average compared to the price competition scenarios regardless of the strategy chosen. Unfortunately, the performed ttests do not support this observation on a significant level. Consequently, we do not find significant support for Hypothesis H5. In contrast, we find support for Hypothesis H1 since the t-test does not support significant difference of the true-valuation payments and the PA-PC payments. Regarding H4 stating that it is beneficial in the AOCR-QC scenario to deviate from truth telling for those SP that would be allocated while submitting their true cost, we perform a single sided t-test and find significant support on a level of p = 0.02 . Figure 2 shows exemplarily the course of one simulation run in the PA-PC setting. The payment sum converges already after a few repetitions close to the true-valuation-equilibrium as expected. We observe similar results in the simulation runs of the same setting with different network topologies. This additionally supports H1. Figure 2 Frequency of Successful Actions Chosen by Allocated SPs Regarding Hypothesis H2 and H3, we investigate both, the frequency of actions taken by all SP (incl. those SP that are not allocated) as well as the frequency of actions taken by the successful SPs. Figure 3 display the frequency of successful actions. Comparing the frequency of submitting true cost in the PA-PC vs. PA-QC we observe a decrease in the number of successful truth tellers. Unfortunately, we do not find significant statistical support since the t-test produces a p-value of 0.09, and thus, the null-Hypothesis cannot be rejected. 5 Conclusion In the present paper we describe that the fundamental change from a product-oriented to a serviceoriented economy fosters the formation of service value networks. Service providers offer their services within these networks. Service requesters combine different service offers to complex services best matching their preferences. The main question in service value networks is how to efficiently match service offers and complex service requests and dynamically determine prices. We propose an auction-based approach as a central allocation mechanism for multi-attribute services. Therefore, we introduce a formal model for service value networks as a k-partite, directed and acyclic graph, we specify the bidding language to define service offers and service requests, and we introduce the incentive compatible auction mechanism. In a repeated game incentive compatibility does not hold. We study two simple strategies to collude by means of an agent-based simulation approach. The simulation results show that deviating from truth telling might be 607 beneficial especially for those SP who are in the allocation. The payments of SP can increase especially if the service quality offers are diverse and as such the difference in prices does not play a such important role as in a price competition regime. We are aware that the results are based on a simple model with relatively strict assumptions. We have just studied two simple strategies, but there certainly exist a couple of more sophisticated strategic alternatives. Additionally, we did not take varying preferences of service requesters into account. As such, the results are model-specific and a generalization is to be proven with additional simulations based on real-world data. During the model development a couple of ideas for future work came up. The most interesting aspect is to introduce additional strategies and also to study mixed strategy settings. We are also interested in using a learning mechanism in order to discover additional strategies. In the present model and simulation we have studied one proposed mechanism which we want to compare to alternative mechanisms, e.g. first-price auctions in which bidding strategies play a very important role. 6 References [1] [2] [3] [4] [5] [6] [7] [8] [9] [10] [11] [12] [13] [14] [15] [16] [17] [18] [19] [20] [21] Ahuva Mu’alem and N. Nisan, Truthful Approximation Mechanisms for Restricted Combinatorial Auctions, Games and Economic Behavior (2007). A. Archer and E. Tardos, Frugal path mechanisms, ACM Trans. Algorithms, 3 (2007), pp. 3. B. Blau, C. Block and J. Stößer, How to Trade Services? - Status and Open Questions, Group Decision and Negotiation (GDN), 2008. B. Blau, D. Neumann, C. Weinhardt and W. Michalk, Provisioning of Service Mashup Topologies, Proceedings of the 16th European Conference on Information Systems, ECIS 2008, 2008. B. Blau and B. Schnizler, Description Languages and Mechanisms for Trading Service Objects in Grid Markets, Multikonferenz Wirtschaftsinformatik, MKWI 2008, München, 26.2.2008 - 28.2.2008, Proceedings, GITO-Verlag 2008 Berlin, 2008. Y. Engel, M. P. Wellman and K. M. Lochner, Bid expressiveness and clearing algorithms in multiattribute double auctions, Proceedings of the 7th ACM conference on Electronic commerce, ACM Press New York, NY, USA, 2006, pp. 110-119. C. van Dinther, Adaptive Bidding under Uncertainty - An Agent-based Approach in Market Engineering, Whitestein Series in Software Agent Technologies and Autonomic Computing, Birkhäuser, Basel, Bosten, Berlin, 2007. J. Feigenbaum, V. Ramachandran and M. Schapira, Incentive-compatible interdomain routing, EC '06: Proceedings of the 7th ACM conference on Electronic commerce, 2006, pp. 130-139. M. Feldman, J. Chuang, I. Stoica and S. Shenker, Hidden-action in multi-hop routing, EC '05: Proceedings of the 6th ACM conference on Electronic commerce (2005), pp. 117-126. J. R. Green and J.-J. Laffont, Incentives in Public Decision-Making, North-Holland Publishing Company, Boston, 1979. T. Groves, Incentives in Teams, Econometrica, 41 (1973), pp. 617-631. J. Hagel III, Spider versus Spider, The McKinsey Quarterly, (1996), pp. 71-79. J. Hershberger and S. Suri, Vickrey prices and shortest paths: what is an edge worth?, Foundations of Computer Science (2001), pp. 252-259. S. Kimbrough and F. Murphy, Learning to Collude Tacitly on Production Levels by Oligopolistic Agents, Computational Economics, Online First, Springer Netherlands, July 2008 P. Maille and B. Tuffin, Why VCG auctions can hardly be applied to the pricing of inter-domain and ad hoc networks, Next Generation Internet Networks, 3rd EuroNGI Conference on (2007), pp. 36-39. N. Nisan and A. Ronen, Algorithmic Mechanism Design, Games and Economic Behavior (2001). N. a. R. Nisan, A., Computationally Feasible VCG Mechanisms, Journal of Artificial Intelligence Research, 29 (2007), pp. 19--47. F. Steiner, Formation And Early Growth Of Business Webs, Springer, Berlin, 2005. D. Tapscott, A. Lowy and D. Ticoll, Digital Capital: Harnessing the Power of Business Webs, Harvard Business School Press, Boston, 2000. W. Vickrey, Counterspeculation, Auctions, and Competitive Sealed Tenders, The Journal of Finance, 16 (1961), pp. 8-37. A. Zerdick, A. Picot, K. Schrape, A. Artopé, K. Goldhammer, U. T. Lange, E. Vierkant, E. López-Escobar and R. Silvertone, E-economics. Strategies for the Digital Marketplace, Springer, Berlin, 2000. 608 QUALITY OF SERVICE DELIVERY: ECONOMIC EFFECTS OF MULTI-HOMING AND CONTENT DELIVERY NETWORKS Thorsten Hau1 , Jochen Wulf, Rüdiger Zarnekow2, Walter Brenner1 1 2 Abstract The structure of the Internet serves as a big "commoditizer" of all traffic. Therefore all data, be it time critical or not is transported at the same speed. However, recent trends in the internet are changing this structure. The practices of multi-homing and using content delivery networks reduce the commodity nature of data being transported and put terminating Internet service providers in a position to price discriminate against specific providers or types of traffic. We firstly formalize multi-homing and content delivery networks, we then derive end user prices for paid content and lastly show consequences of the modeled situation. We thus show how the two technologies to bypass crowded peerings change the Internet business model. Traffic which is sensitive to transport quality, such as business critical or delay sensitive traffic, will be paying higher fees to terminating ISPs. 1. INTRODUCTION It is a trivial thought that content (a service, music or text) needs to be delivered to its consumer. However, apparently this problem is by and large being ignored in the web service hype. Implicitly in all service visions it is assumed that the Internet is there and available in appropriate quality. There is for example no work that the authors are aware of, which connects web service availability with the use of the underlying network infrastructure. The available literature on web service standards does consider quality of service of web services but only as a question of setting a protocol standard to exchange quality information between two nodes in a network [7, 23]. A first tentative investigation into the matter of availability of web services is provided by [16] and [17]. Even though [16] do not attribute the differences in download speed to connection quality, such an interpretation does not seem far-fetched, especially when considering the geographical disparities in the measured data. The authors of this work believe that one key factor for the slow uptake of services (SaaS for example) by businesses is a result of the performance and reliability problems [15]; and these are in large part due to today’s Internet. This work focuses on one specific aspect of quality of service of 1 2 Institut für Wirtschaftsinformatik, Universität St. Gallen Institut für Technologie und Management, Technische Universität Berlin 609 the Internet and analyses the economic impact of two quality assurance technologies on today’s pricing regime of the Internet. Internet pricing is a vast field of research that has its roots in telecommunications. This paper departs somewhat from the “classical” literature on communications pricing by considering a special pricing problem present in today’s Internet that has not been covered by the extant literature. We focus on content oriented pricing of network services. In such a scenario Internet service providers (ISPs) with access to end users (EUs) can discriminate against content providers and charge higher prices for termination. This scenario departs from the idealized bill and keep regime that is often used as a basis for analysis of network pricing decisions. However, our scenario is quite realistic. It is commonplace that content providers (CPs) directly buy transit from terminating ISPs, thus effectively paying them for preferential access to end users. This is a viable strategy because by bypassing crowded peerings used by the CP’s original ISP, the CP gets higher quality access to EUs. This is due to the fact that peering points are a major bottleneck on the Internet. While there are usually few capacity problems present inside a single provider’s network, peerings are often at their capacity limit [19], [4]. For the purpose of this paper we call this practice multi-homing (MH). Content delivery networks (CDNs) are also a popular way to enhance the flow of information on the web. A CDN uses local caches to keep distributed images of content close to EUs thus bypassing peerings. The CDN effectively buys transit from the ISP that terminates the traffic. The paper is structured as follows: First we explain the relevant entities of the current Internet that we need for a formal model. Then we present a formalized treatment of four scenarios that show how CDN and MH affect ISPs incentives to price traffic. Lastly we discuss consequences of our model and sketch out an agenda for further research. 2. STATUS QUO: THE MARKET FOR INTERNET CONNECTIVITY 2.1. Overview Figures 1 and 2 show the structure of the Internet as commonly used to model the Internet [18], [12] and [21]. In figure 2 at the bottom, customers and content providers receive and send traffic, respectively. ISPs interconnect to exchange traffic to and from their customers (EUs or CPs). In figure 2 traffic could for example originate at the content provider and be passed on to its ISP 3. From there it is routed to ISP 1 to be terminated at end user (EU) one. The ISPs are fully meshed, each one interconnecting with all the others. It is a common approximation [12] that CPs (web sites) only send traffic and EUs only receive traffic. 2.2. Internet Service Providers ISPs provide connectivity to Internet users who are either end users or content providers. The ISPs pay the market price pw to the ISPs for termination of traffic. Typically ISPs have no lack of bandwidth on their backbones and can provide quality assurance to traffic either through excess capacity or network management techniques commonly employed only within a single provider’s network [22]. Bottlenecks (Not meant in the sense of bottleneck facility as in [1, 2] may be present in the peering points and in the access network. We ignore possible problems due to constrained access bandwidth and concentrate on the peerings. All of the following ignores dynamic considerations of integration and foreclosure through the ISP. 610 2.3. Points of Interconnection In figure 2 the circle with arrows in upper middle represents the point of interconnection where the three ISPs interconnect their networks. This is also called a “peering point”. There are two dominant modes of interconnection: Peering and transit. Peering is a settlement free agreement to exchange traffic while transit involves payment for exchanged data typically on a bit-rate per time scale. Typically peering agreements are used between ISPs of similar size while transit is paid from small ISPs to larger ISPs. Peering points are among the major bottlenecks of the Internet because it always takes both parties to agree to extend the capacity of a peering point. Since the telecommunications firms who own the Internet infrastructure tend to be not overly cooperative these peering points represent excellent opportunities for power play or generally uncooperative behavior. Peerings are frequently overloaded at peak times because one of the two parties involved has no interest in paying for extending its capacity [1] [5], [3], [8]. Ways for CPs to circumvent frequently overloaded (and therefore slow and packet dropping) peerings are multi-homing and the use of CDN services. Transit in contrast to peering involves a payment from one ISP to the other for the delivery of traffic. With such an agreement a guaranteed bandwidth is bought. Due to strategic considerations the biggest networks only peer among themselves and charge smaller networks for sending traffic to them. Since small ISPs have to pay for sending traffic to larger networks which is necessary to reach the whole Internet they optimize their out-payments for transit fees by buying the least amount of bandwidth their users will tolerate. 2.4. Content Providers Content Providers are for example websites that buy connectivity to the Internet from an ISP (possibly mediated through a hosting provider).Content providers are able to multi-home. They can buy connectivity for one fraction of their traffic from IPS1 and the rest from ISP 2. Furthermore they can host their service with any provider anywhere in the world giving them a very large set of ISPs to choose from. This creates competition amongst ISPs for CPs’ business and therefore CPs face a market price for Internet connectivity based on perfect competition. This price only includes un-prioritized traffic transportation across peering points. Canonical analysis [10-12, 14] usually assumes the following model of Internet payments: EU → ISPt ↔ a ISPo ← CP (t=terminating, o=originating), ignoring where the CP gets funding from and emphasizing the analysis of the inter ISP settlement a. Focusing on payments for content viewing, we model the payments flows according to the following scheme: ISPt ←a ISPo ← pw CP ← p EU . We ignore payments from the EU to the terminating ISP for access to the Internet. Payments from the EU to the CP might be paid through watching advertisements or direct money exchange. The arrow with the a stands for the access charge that is paid from one ISP to the other for sending traffic to the receiving ISP[13]. p is the final price paid by the EU for viewing some content. pw is the price paid from the CP to the ISP for reaching the EU. If the ISP receiving pw cannot terminate the traffic it has to pay an access charge to another ISP able to terminate the traffic. If a CDN is involved in content delivery, the CP has to pay the cost of the CDN, too. Modifying the way CPs get access to the EUs and modifying payments accordingly will be the key part of this paper. The two variations we will consider are: multi-homing and CDN delivery. With MH, the terminating ISP is directly connected with the CP, while with CDNs a neutral third party mediates between CP and ISPt. Under MH payment flows are ISPt ← pw CP ← p EU and the originating ISP is cut out of the equation. With CDN delivery, the payments are: ISPt ← pw CDN ← pw + ccdn CP ← p EU We model CDNs as fully competitive entities only passing on costs. 611 2.5. End Users Unlike CPs, EUs cannot divide their traffic amongst several ISPs and are immobile in the sense that they cannot chose their provider globally but need to chose among a small number of local ISPs. Therefore we consider a static scenario in which EUs are bound to their ISP, providing the ISP with a monopoly over terminating traffic to those EUs. Neither the competition among local ISPs for market share nor the dynamic considerations of consumers with switching costs [9] are considered here. 2.6. Multi-homing Multi-homing is the common practice that CPs interconnect with several different ISPs. There are several instances of big content providers that are present in public peering points in order to gain direct access to ISPs with many EUs. Google for example is not just with one ISP in the USA but has its own transatlantic fiber capacity and is present in DE-CIX [6]. Besides the reliability aspect this practice allows the CPs to get direct access to an ISP’s network and thus be more in control over bandwidth agreements with that ISP. 2.7. Figure 1: Simplified model of the Internet. Figure 2: A tiered view of the Internet. Figure 3: The Internet with MH. Figure 4: The Internet with CDNs. Content Delivery Networks CDNs consist of a network of servers that are distributed around the Internet within many ISPs’ infrastructures. A CDN takes content from a CP and caches it on those distributed servers, which has the effect that content is brought closer to the EU without passing through peerings. The CDN then delivers the content it is caching from the mirror site to the EU. By using the services of a CDN a CP does not need to multi-home with every possible network. We assume that CDNs do not make any profit and charge efficient prices. 612 3. MODELING THE EFFECTS OF MULTI-HOMING AND CDN A key feature of the Internet is that all traffic is being treated (more or less) equally. Methods for discriminating against specific types of traffic are expensive and are not used aggressively. While this makes the Internet very egalitarian, it is a problem for content which needs assured performance parameters. Video streaming for example can only tolerate a certain package loss and Internet gaming requires assured low delays. Since the Internet cannot assure constant quality levels, methods to bypass the main bottlenecks are used by commercial CPs: CDN and MH. Both technologies “de-commoditize” Internet traffic because the source of traffic becomes a business partner. In the following we will analyze the four combinations of market form faced by the CP and strategic behavior of the ISPs. The columns of table 1 represent the possible actions the terminating ISP can take: With MH it can perfectly discriminate against the known source of traffic and extract profits; with CDNs it can discriminate against all traffic that requires higher quality and has demonstrated this through the use of a CDN (self selection). The rows represent the market situation the CP is facing. Under competition many CPs are serving a market; with a monopoly, only one CP serves a specific market with one product. Cross product/market elasticities are assumed to be zero. The cells of the table show what the ISP will do to extract the maximum revenue from the CP. Content Competition Content Monopoly Perfect / 1st degree price discrimination (MH) 1: ISP sets access price until monopoly price for content is reached 3: ISP extracts all revenue from CP through two part tariff Class of Service / 2nd degree price discrimination (CDN) 2: ISP sets monopoly price for termination, inefficient since ISP sets avg. price 4: ISP sets monopoly access price but cannot capture all rents from CPs (dbl. marginalization) Table 1: The four possible situations with an access monopolist 3.1. Scenario 0: No Discrimination by ISP Possible The situation when the ISP has no way of differentiating different traffic, and therefore cannot set different prices for different traffic sources and different quality classes, is not shown in table 1. It corresponds to the “normal” way traffic is exchanged on the Internet. The price for terminating traffic pw is equal to the ISP’s cost c. The charge pw which is levied by the terminating ISP feeds through to the originating CP as a rise in connection costs to be included in the charge to the EU. The CP therefore can consider the market price as given. This treatment ignores the considerations put forward by [12]. 3.2. Scenario 1: Perfect Discrimination by ISP and Content Competition Here the terminating ISP can perfectly discriminate against CPs while the CPs face a competitive market. Assuming perfect competition only efficient firms are active in each differentiated market and the ISP can perfectly discriminate against each market segment (i.e. treat a whole segment like one single CP). By setting its price pw,i charged to the CPs of segment i equal to the monopoly price the ISP can extract monopoly profits while leaving no profits to the CPs. Each CP sets the competitive price pi in segment i equal to its marginal costs. For simplicity we assume that 613 marginal costs of production of the CPs are zero. Therefore pi = pw,i. The ISP with marginal costs ci per market segment determines pw,i by solving the following problem: (1) max pw ,i ⎡⎣( pw,i − ci ) Di ( pw,i ) ⎤⎦ . For example suppose that the demand function in one of the market segments i is given by Di ( pw,i ) = 1 − pw,i . Then the target function of the ISP is: max pw ,i ⎡⎣( pw,i − ci )(1 − pw,i ) ⎤⎦ . (2) Solving this gives for price and output quantity yields 1 + ci (3) pw , i = , 2 1 − ci Di ( pw,i ) = qi = and (4) 2 2 ⎛ 1 − ci ⎞ Π = pw,i qi − ci qi = ⎜ (5) ⎟ . ⎝ 2 ⎠ Interpretation: The ISP converts each competitive market-segment i into perfect monopoly and extracts the maximum profit. The output quantity is reduced and the CPs make no profits. Note that this result would not hold with users being able to switch between ISPs. Switching users without switching costs would restore competitiveness of the market. Due to long term contracts, however, the ISP has some market power. 3.3. Scenario 2: Market Segmentation by ISP and Content Competition This situation is similar to scenario one with a reduction in the ability to discriminate against CPs. With a CDN as mediator only CDN (i.e. quality sensitive) and non-CDN traffic can be distinguished. CDNs buy transit from the ISP who can thus differentiate between quality sensitive traffic from CDNs and ordinary traffic through normal peerings with other ISPs. The price taken by the competitive CPs depends on the price pw set by the ISP which acts like a monopolist. The ISP faces an aggregate demand for quality traffic. Assuming that the CDN segment is competitive, the ISP can set monopoly prices for CDN traffic which raises marginal costs of the CDN providers and thus costs for CPs. In the following treatment we assume the CDN costs to be fully absorbed into the marginal cost of the CP. For simplicity both are assumed to be constant and zero. Again the CPs are competitive in each market segment. In each of n market segment the CPs have the target function max pi [( pi − pw ) Di ( pi )] (6) where pi is the price charged to the EUs and pw is the uniform price for CDN traffic paid to the ISP. Different from scenario one, now the ISP cannot set different p w,i per market segment but just one averaged price for CDN traffic. Under perfect competition price equals marginal costs: pi = pw. (7) Interpretation: It is obvious form equation (6) that the ISP influences the pricing decisions of the CP’s through its price pw. However, since the ISP can only set a a uniform price for all CDN traffic, it can only optimize across an aggregated n demand function D = ∑ Di . Therefore prices in the EU market need not be those an integrated monopolist would have chosen. In this situation inefficiencies are present since the ISP charges an average price. Some segments profit from this by paying a price below the monopoly level, thus improving efficiency, while other segments pay more than the optimal monopoly price which might result in some markets not being served. 614 3.4. Scenario 3: Perfect Discrimination by ISP and Content Monopoly The ISP can target the CPs individually and set individually profit maximizing prices. This situation seems prone to double marginalization with two cascaded monopolies. However, the ISP can anticipate this sort of inefficiency and avoid it by setting a usage price pw and then extracting all profits of the monopoly CPs through a fixed fee A. This way of pricing is known as franchising [20]. The total price set by the ISP is T (q ) = A + pwq. (8) Assuming that the ISP sets pw = c efficiently at the marginal cost of providing the service (the variable q is the output quantity of the ISP), the CP chooses the optimal end user price p: max p [ ( p − c) D( p ) − A] . (9) This results in the monopoly EU price 1+ c p= . (10) 2 By setting the fixed fee A equal to the profit of the CP the ISP can now extract all profit without distorting the target function of the CP. The same result could have been achieved with a “tax” τ Π levied by the ISP. Interpretation: The profit based charge A does not alter the price paid by consumers but shifts profits from the CP to the ISP. This can be a problem since monopoly profits could be the reward for innovation and if those profits are taken away, innovation might not be profitable any more. This situation is good for static efficiency since the output decision of the CP is not changed by the ISP’s behavior. However, when considering the development over time, no matter how much of the CPs’ revenue is extracted by the ISP, the EU price for the content stays the same and thus there is no competitive pressure from EUs on the ISP. 3.5. Scenario 4: Market Segmentation by ISP and Content Monopoly Each of n CPs serves a monopoly market as in case three but the ISP cannot differentiate between those markets and can only optimize its revenue based on gross demand (as in case two) by all fully differentiated CPs. This corresponds to a situation know as double marginalization. Now the CPs (with constant marginal cost set to zero) set their price for content as a standard monopolist. Their target functions are: max pi [( pi − pw ) Di ( pi )] (11) where pi is the price charged to the EU and pw is the price paid to the ISP. Since the ISP can only 2nd degree price discriminate we will analyze the ISP’s problem based on average figures for price and demand from all CPs demanding quality (using CDN): 1 n p = ∑ pi , and (12) n i =1 1 n D = ∑ Di ( pi ). (13) n 1=1 Assuming for simplicity that aggregate demand is linear: D ( p ) = 1 − p , the solution to this problem is similar to the treatment in section 3.2 with the ci replaced here by pw and yields optimal prices of 1 + pw 1 − pw and an optimal output q = . Using this quantity, the optimization problem of the p= 2 2 ISP with marginal output cost c for CDN traffic is: ⎡ ⎛ 1 − pw ⎞ ⎤ (14) max pw ⎢( pw − c) ⎜ ⎟⎥ ⎝ 2 ⎠⎦ ⎣ 615 1+ c 3+ c and p = for the final consumer price. Comparing the sum of the 2 4 profits of ISP Πisp and CP Πcp we see that it is smaller than the profit Πint of an integrated monopoly provider: (1 − c) 2 (1 − c) 2 (1 − c) 2 Π isp + Π cp < Π int ⇔ + < . (15) 8 16 4 1+ c 3+ c The end user price p = in monopoly is lower than the p = above (as long as c < 1 which 2 4 makes sense because with D = 1 − p, 1 > p ≥ pw ≥ c must be true if no losses are made and there is a positive demand). Interpretation: On average across EUs’ demand for the perfectly differentiated markets this situation is suboptimal since prices could be lower and revenues could be higher. In addition to this double marginalization problem, there exists a problem due to the averaging of price and demand of the different CPs. Since the price set by the ISP is targeted at the average CP, it will typically be either too high or too low. Thus there is a second source of inefficiency. ISPs could also opt for a different pricing model and charge (as in scenario 3) a fixed fee plus an efficiently set usage fee pw. Thus inefficiencies due to the ISPs behavior would be removed. However, since the ISP can only set an average A it is impossible to extract all rents. A would even make some market segments with low profits unattractive to serve since profits are too low to cover the fixed fee. Thus one has to chose between double marginalization reducing output in some segments and franchising resulting in some markets not being served at all. resulting in pw = 3.6. Synopsis of the Four Scenarios In all four scenarios welfare is below optimal and prices are above the competitive level. It is even possible as shown in case four that welfare is lower than in monopoly. The first general result therefore is that CDNs and multi-homing reduce welfare due to reducing the efficiency of price setting for data transport. This result is true if one ignores the welfare gains of being able to deliver higher QoS by the use of those technologies. The second result which is common to all cases is that ISPs’ price setting reduces CPs’ profits. While this in itself does not need have a negative effect on welfare in a static environment it can be detrimental when considering monopoly revenues of CPs as the reward for innovation. If ISPs extract these profits, innovation might become unprofitable for CPs. Furthermore ISPs are able to exploit their access monopoly and create monopolies from otherwise competitive markets. The only precondition for this is a quality requirement of the service that does not allow the use of ordinary peerings. 4. CONCLUSIONS AND FURTHER RESEARCH This work provides a new view on access pricing and quality of service on the Internet. Assuming that CDN and multi-homing are used to improve the quality of service provided to the EU we have shown how a “de-commoditization” of traffic enables the terminating ISP to charge more for termination. Our analysis shows that there exist incentives for ISPs to further degrade peering quality to attract more traffic to the more profitable segments. On the positive side, understanding multi-homing and CDNs as quality mechanisms opens up a whole new view on the quality of service debate. Standard approaches of QoS always require global carrier collaboration. All carriers have to agree on service classes and forward each other’s traffic with the appropriate service level. With multi-homing and CDN, an edge based solution to QoS is available that can deliver QoS for many applications on the Internet. 616 The presented work leaves open and poses many further research question that need to be addressed. On the technical side, it would be interesting to know whether CDN and MH can fully replace inter carrier agreements on quality parameters of traffic. Which quality mechanisms are necessary inside one carrier’s network to complement the peering bypass capability of CDN and MH with the ability to deliver to the EUs workstation? On the service oriented side, more work needs to be done to better understand the (non-) adoption of services and its connection with (un-) reliability and issues of the Internet. In an experimental set-up with one service hosted by CDN or MH and one service hosted within another network one could empirically validate the influence of peerings on user satisfaction. There are many questions that we have not addressed. However, the text presents a new perspective on the QoS debate and on economic aspects of CDN and MH. Services hosted on the Internet are a case in point for the quality sensitivity of consumers and the lack of quality in the internet. We believe this paper will add an important building block to our understanding of QoS on the Internet and spark ideas to QoS enable the web. REFERENCES [1] ARMSTRONG, M., "Network Interconnection in Telecommunications," The Economic Journal, vol. 108, pp. 545-564, 1998. [2] 2006. ARMSTRONG, M., "Competition in two-sided markets.," RAND Journal of Economics, vol. 37, pp. 668-691, [3] BADASYAN, N.C., SUBHADIP, "A simple game-theoretic analysis of peering and transit contracting among Internet service providers," Telecommunications Policy, vol. 32, pp. 4-18, 2008. [4] CAVE, M.M., S. K. & VOGELSANG, I., Handbook of telecommunications economics: Elsevier Boston, Mass, 2002. [5] CREMER, J.R., PATRICK & TIROLE, JEAN, "Connectivity in the Commercial Internet," The Journal of Industrial Economics, vol. 48, pp. 433-472, 2000. [6] DE-CIX, "http://www.de-cix.net/content/clients.html," 2008. [7] ERRADI, A. and MAHESHWARI, P., "A broker-based approach for improving Web services reliability," presented at Web Services, 2005. ICWS 2005. Proceedings. 2005 IEEE International Conference on, 2005. [8] FOROS, O.K., HANS JARLE & SAND, JAN YNGVE, "Do internet incumbents choose low interconnection quality?," Information Economics and Policy, vol. 17, pp. 149-164, 2005. [9] KLEMPERER, P., "Competition when Consumers have Switching Costs: An Overview with Applications to Industrial Organization, Macroeconomics, and International Trade," Review of Economic Studies, vol. 62, pp. 515539, 1995. [10] LAFFONT, J.-J., REY, P., and TIROLE, J., "Network Competition: II. Price Discrimination," The RAND Journal of Economics, vol. 29, pp. 38-56, 1998. [11] LAFFONT, J.-J., REY, P., and TIROLE, J., "Network Competition: I. Overview and Nondiscriminatory Pricing," The RAND Journal of Economics, vol. 29, pp. 1-37, 1998. [12] LAFFONT, J.-J., MARCUS, S., REY, P., and TIROLE, J., "Internet Interconnection and the Off-Net-Cost Pricing Principle," The RAND Journal of Economics, vol. 34, pp. 370-390, 2003. [13] LAFFONT, J.J.M., S.; REY, P. & TIROLE, J., "Internet Peering," The American Economic Review, vol. 91, pp. 287-291, 2001. [14] LAFFONT, J.J.T., J., Competition in Telecommunications: MIT Press, 2000. 617 [15] MA, Q., PEARSON, J., and TADISINA, S., "An exploratory study into factors of service quality for application service providers," Information & Management, vol. 42, pp. 1067-1080, 2005. [16] ONIBOKUN, A. and PALANKAR, M., "Amazon S3: Black-Box Performance Evaluation."´ [17] PALANKAR, M.R., IAMNITCHI, A., RIPEANU, M., and GARFINKEL, S., "Amazon S3 for science grids: a viable solution?," in Proceedings of the 2008 international workshop on Data-aware distributed computing. Boston, MA, USA: ACM, 2008, pp. 55-64. [18] SHAKKOTTAI, S.S., R., "Economics of network pricing with multiple ISPs," IEEE/ACM Trans. Netw., vol. 14, pp. 1233-1245, 2006. [19] SHRIMALI, G.K., SUNIL, "Bill-and-Keep peering," Telecommunications Policy, vol. 32, pp. 19-32, 2008. [20] TIROLE, J., The Theory of Industrial Organization: MIT Press, 1988. [21] ULUDAG, S.L., K.S.; NAHRSTEDT, K. & BREWSTER, G., "Analysis of Topology Aggregation techniques for QoS routing," ACM Computing Surveys, vol. 39, 2007. [22] WANG, Z., Internet QoS: Architectures and Mechanisms for Quality of Service: Morgan Kaufmann, 2001. [23] ZENG, L.B., B.; NGU, A.H.H.; DUMAS, M.; KALAGNANAM, J. & CHANG, H., "QoS-aware middleware for Web services composition," IEEE Transactions on Software Engineering, vol. 30, pp. 311-327, 2004. 618 MOBILE SYSTEME Das breite Spektrum an Technologien und Anwendungen zur Unterstützung mobiler Lösungen für traditionelle und innovative Geschäftsprozesse wächst stetig und bietet ein off enes Feld für die Forschung. Zugleich sorgen die Verfügbarkeit von Standards, von Infrastrukturen für drahtlose Dienste und nicht zuletzt die hohe Verbreitung von mobilen Endgeräten weltweit für ein enormes Marktpotenzial. Ziel dieses Tracks ist die Auseinandersetzung mit allen Aspekten „Mobiler Systeme“, von den Basistechnologien und Infrastrukturen bis hin zu Geschäftsmodellen, Mehrwertdiensten, Wirtschaftlichkeitsbetrachtungen und methodischen Ansätzen einschließlich der Begleitforschung zu Akzeptanz, Nutzen und Risiken. Leitungsgremium: J. Felix Hampe, Universität Koblenz-Landau (Federführender) Gabriele Kotsis, Johannes Kepler Universität Linz Franz Lehner, Universität Passau Klaus Turowski, Universität Augsburg Programmkomitee: Michael Amberg, Universität Erlangen-Nürnberg Markus Bick, ESCP-EAP Europäische Wirtschaftshochschule Berlin Harry Bouwman, Delft University of Technology Niederlande Michael Breitner, Universität Hannover Rony G. Flatscher, Wirtschaftsuniversität Wien Bardo Fraunholz, Deakin University Melbourne George Giaglis, Athens University of Economics and Business Timber Haaker, Telematica Institut Niederlande Hagen Hoepfner, Association for Computing Machinery Thomas Kirste, Universität Rostock Birgitta König-Ries, Universität Jena Jan Marco Leimeister, Technische Universität München Gerald Madlmayr, FH Hagenberg Key Pousttchi, Universität Augsburg Kai Rannenberg, Johann Wolfgang Goethe-Universität Frankfurt am Main Thomas Ritz, FH Aachen Detlef Schoder, Universität zu Köln Gerhard Schwabe, Universität Zürich Stefan Stein, Uni Koblenz Can Türker, Eidgenössische Technische Hochschule Zürich EIN MOBILES SPIEL WIRD ZUM EVENTMARKETINGINSTRUMENT Christoph Göth, Raphael Joss, Gerhard Schwabe1 Kurzfassung Der mExplorer ist ein an der Universität Zürich entwickeltes mobiles Lernspiel, welches Erstsemestrigen den Campus einer Universität auf spielerische Art und Weise näher bringen soll. In diesem Beitrag wird gezeigt, wie das Spiel für das Eventmarketing eingesetzt werden kann und welche Wirkungen es dabei hat. Bei einem Feldtest wird gezeigt, dass ähnliche Probleme wie beim mobilen Lernen auftreten, aber auch ähnliche emotionale Wirkungen erzielt werden. Aus den unübersehbaren Ähnlichkeiten zwischen mobilem Lernen und Eventmarketing schliessen wir auf eine Konvergenz unterschiedlicher Lebensbereiche durch mobile Anwendungen. 1. Einleitung Klassische Marketingmassnahmen wie TV-Werbung, Plakate und Inserate finden in der heutigen Zeit immer weniger Resonanz. Die Konsumenten ignorieren solche Promotionen oder fühlen sich durch diese sogar gestört. Ist es dem Hersteller oder Dienstleister jedoch möglich ein Produkt oder eine Leistung mit einem Erlebnis zu verbinden, so kann sich dieses von der Masse abheben. Dies machen sich bereits seit einigen Jahren verschiedene Wirtschaftszweige zu Nutze. So kostet beispielsweise eine Tasse Kaffee am Markusplatz in Venedig 15 Franken, wohingegen er in einer normalen Universitätscafeteria 2 Franken kostet [12]. Dieser Preisunterschied lässt sich nur durch den deutlich höheren Erlebniswert am Markusplatz erklären, den der Kunde mitbezahlt. Diesen Effekt macht man sich auch im Eventmarketing zu Nutze. Ein Produkt soll mit einem Erlebnis verbunden werden, um so die Sichtbarkeit und Resonanz zu erhöhen. Eine Spielart des Eventmarketings ist das mobile Eventmarketing, wo explizit die Vorteile der Kontextualisierung genutzt werden. Ein System für Eventmarketing, der mExplorer, soll in diesem Artikel vorgestellt werden. Mit dem mExplorer soll es möglich werden ein Produkt oder eine Institution in Form eines Erlebnisses zu vermarkten. Bis anhin wurde der mExplorer dazu eingesetzt Erstsemestrigen den Campus einer Universität auf spielerische Art und Weise näher zu bringen. Die Studenten spielen dabei mit einem PDA, welcher ihnen verschiedenste Aufgaben zuteilt. Die Bearbeitung der Aufgaben führt die Studenten zu unterschiedlichen Orten und Personen auf dem Campus, dazu gehören die Mensa, das Dekanat, der Computerarbeitsraum, etc. [8]. Die zugeteilten Aufgaben können von den Studenten nur vor Ort gelöst werden. Damit sie einfacher zu den 1 Universität Zürich, Institut für Informatik 621 Aufgaben finden, verfügt der mExplorer über eine Indoor Navigation, so sehen die Spieler stets ihre aktuelle Position auf einer digitalen Karte auf dem PDA. Für das Eventmarketing ist der mExplorer schon als technische Innovation an sich ein attraktives Objekt. Wir fragten uns, ob und wie der mExplorer mittels eines geeigneten Szenarios das Promoting einer Institution oder eines Produktes ermöglichen könnte. Dabei stellten sich folgende Forschungsfragen: 1. Welche Anforderungen stellt das Eventmarketing an die mobile Unterstützung und welche Änderungen am System sind ggf. nötig? 2. Welche Wirkungen hat der Einsatz und erfüllen die Wirkungen typische Erwartungen an das Eventmarketing? 3. Was sind wesentliche Gemeinsamkeiten und Unterschiede zwischen dem Einsatz für mobiles Lernen und für das Eventmarketing? In nächsten Teil werden daher zuerst die bestehenden Marketingansätze aus dem Eventmarketing aufgearbeitet. Ein dritter Teil erklärt das System mExplorer im Detail und beschreibt das Szenario für das 175-jährige Jubiläum der Universität Zürich (Forschungsfrage 1). Bei der Durchführung des Anlasses wurden die Besucher aufgefordert einen Fragebogen auszufüllen. Im vierten Teil werden die Ergebnisse dieser Befragung präsentiert (Forschungsfrage 2). Der fünfte Teil zieht ein Fazit (Forschungsfrage 3). 2. Eventmarketing Ein wichtiges Element des Eventmarketings stellt die Erlebnisorientierung dar, ein weiteres ist die Interaktivität [2]. Mit beiden Elementen soll der Teilnehmer in das Event unter aktiver Beteiligung eintauchen. Dies grenzt das Eventmarketing auch vom verwandten Erlebnismarketing ab, bei dem der Konsument oft zum passiven Zuschauer degradiert wird. Erst durch die aktive Teilnahme, also der Interaktion mit dem Produkt, wird dieses emotionalisiert. Durch das Erlebnis und die Interaktion verankert der Konsument die Marketingbotschaft langfristig in seinem Gedächtnis, wobei das Erlebnis möglichst positiv sein sollte. Während also das Erlebnismarketing meist nur für Unterhaltung sorgt, bietet das Eventmarketing dem Konsumenten Realitätsflucht [12]. Im Eventmarketing soll ein Produkt, eine Dienstleistung oder ein Unternehmen innerhalb eines Events erlebnis- und dialogorientiert präsentiert werden. Dafür braucht es eine zielgerichtete, systematische Planung, Organisation, Inszenierung und Kontrolle. Ziel ist die Vermittlung von unternehmensgesteuerten Botschaften unterstützt durch emotionale und physische Stimulans während des Events [2]. Neben den Merkmalen Erlebnisorientierung und Interaktivität ist die Inszenierung ein drittes Merkmal des Eventmarketings [1]. Die Erlebnisorientierung fordert, dass ein Event möglichst alle Sinne der Teilnehmer beeinflusst, sie sollen sowohl visuell als auch akustisch, olfaktorisch (Gerüche), haptisch (Materialien) und gustatorisch (Geschmack) angesprochen werden. Die Interaktivität verlangt, dass der Kunde aktiv in das Event miteinbezogen wird, dies erhöht die Kommunikationswirkung. 622 Inszenierung bedeutet dem Event eine Geschichte zu verleihen, die einzelnen Elemente des Anlasses müssen zu einer natürlichen Abfolge kombiniert werden. Dabei geht es nicht unbedingt um eine besondere Dramaturgie. Das Eventmarketing verlangt nach einer systematischen Planung, jedoch ist die Organisation eines Events dabei praktisch nicht standardisierbar. 2.1. Ziele des Eventmarketings Die Ziele des Eventmarketings lassen sich in Kontaktziele und Kommunikationsziele unterteilen [4]. Zwar gibt es auch Events, die ökonomische Ziele verfolgen, diese Ziele stehen jedoch allgemein nicht im Vordergrund und sind zudem meist nur sehr schwer zurechenbar. Wichtigstes Kontaktziel ist den Konsumenten überhaupt für eine Teilnahme am Event motivieren zu können. Dies erfordert, dass die Zielgruppen für den Event im Voraus definiert sind und dass die restlichen Marketinginstrumente aktiviert werden, um das Ziel zu erreichen. Die Kontaktziele werden auch als Pre-Eventziele bezeichnet [2]. Bei den Kommunikationszielen handelt es sich um die eigentlichen strategischen Ziele eines Events. Dieses soll die Bekanntheit einer Marke vergrössern oder das Image des Unternehmens verbessern und schliesslich auch zu Kaufinteresse und Kaufbereitschaft führen. Ziel ist demnach eine Verhaltensänderung beim Konsumenten, welche durch ein positives Erlebnis erreicht werden kann [4]. Wichtig für eine erfolgreiche Zielformulierung ist eine detaillierte Zielgruppenbeschreibung. Bei den Zielgruppen handelt es sich entweder um externe Gruppen wie Kunden, Lieferanten oder auch Medien oder um interne Gruppen wie Mitarbeiter oder Eigentümer des Unternehmens. 2.2. Mobiles und ortsabhängiges Marketing Der Einbezug des Ortes führt zu kontextuellem Marketing [11], dabei soll dem Benutzer die richtige Information zur richtigen Zeit am richtigen Ort zur Verfügung stehen, unter Berücksichtigung des aktuellen Kontextes des Benutzers. Kontext meint den Ort, die Gemütslage, das aktuelle Interesse oder auch die aktuelle Aktivität des Benutzers. Ein einfacher Service wäre zum Beispiel die Angabe über nahe gelegene asiatische Restaurants. Der Benutzer fragt die Information entweder selbst ab (Pull-Prinzip) oder erhält diese basierend auf seinem Kontext automatisch (Push-Prinzip) [10]. Oft können solche Services auch durch voreingestellte Benutzerprofile beeinflusst werden. Dabei existieren auch Systeme, die das Benutzerprofil anhand der Aktivitäten des Benutzers anpassen. Werbung mit mobilen Geräten ist besonders attraktiv, weil diese über eine sehr hohe Erreichbarkeit verfügen. Die Benutzer können zu jeder Zeit und an jedem Ort angesprochen werden [3]. Zu berücksichtigen sind jedoch sowohl die Privatsphäre des Benutzers als auch der dazugehörige Datenschutz. Mobiles Eventmarketing fügt die Elemente des Eventmarketings und die Ansätze aus dem mobilen und kontextuellen Marketing zusammen. Es soll nicht nur orts- oder kontextbezogene Werbung ermöglicht werden, sondern der Benutzer soll, wie im Eventmarketing, Produkte oder Marken mit Emotionen verbinden. Er soll unterhalten werden und an der Interaktion Spass haben. Die beschriebenen Ziele aus dem Eventmarketing sollen also mit Hilfe eines mobilen Gerätes erreicht 623 werden, welches den Kontext, der in diesem Falle hauptsächlich aus dem Ort besteht, des Benutzers miteinbezieht. Eventmarketing und mobiles Marketing fliessen ineinander zusammen. 3. Der mExplorer als Eventmarketinginstrument Der mExplorer wurde ursprünglich als mobiles Lernspiel entwickelt und sollte Erstsemestrigen ihre neue Umgebung, die Universität, auf spielerische Art und Weise näher bringen [8]. In Zweierteams erhalten die Studenten einen PDA, mit dessen Hilfe sie auf dem Campus navigieren und die Aufgaben bearbeiten können. Das Spiel stellt den Studenten verschieden Fragen und Aufgaben, welche sie an die verschiedensten Orte auf dem Campus führt, die Fragen können nur vor Ort beantwortet werden. So müssen sie zum Beispiel angeben, wie viel ein Mittagessen in der Mensa kostet. Auf einer digitalen Karte sehen die Spieler ihre Position, diejenige der Aufgaben und auch die Position der restlichen Teams. Der PDA verfügt dazu über ein Positionierungssystem mittels WLAN-Positionierung. Für das Beantworten der Fragen erhalten die Teams Punkte. Ein weiteres Element ist eine Jagdfunktion. So wird jedem Team ein Jäger-Team und ein Opfer-Team zugeteilt. Kommt ein Team genügend nahe an sein Opfer-Team heran, kann es dessen Avatar auf der Karte anklicken und fängt dieses so ein. Für das Einfangen erhalten die Teams zusätzliche Punkte, das Team mit den meisten Punkten gewinnt das Spiel. Beim mExplorer handelt es sich um ein klassisches Client-Server-System, das vollständig in Java implementiert wurde. Neben dem Server kommen Windows Mobile PDAs mit einer J2ME Virtual Machine zum Einsatz. Der Server funktioniert als Koordinationspunkt, von ihm aus werden die Aufgaben an die PDAs verteilt und umgekehrt die Lösungen vom PDA an den Server gesendet. Gleichzeitig koordiniert der Server auch das Positionierungssystem und damit auch die Informationen über den Status der Jagdfunktion. Das Positionierungssystem stellt die Grundlage für die ortsabhängigen Aufgaben. Da der mExplorer hauptsächlich für die Anwendung im Innern von Gebäuden gedacht ist, fällt GPS als Positionierungsmöglichkeit weg. Deswegen wird das kommerzielle WLAN-Positionierungssystem von Ekahau eingesetzt. Abbildung 1: GUI des mExplorers Das GUI des Clients (siehe Abbildung 1) symbolisiert das eigentliche Spiel. Über dieses werden die Aufgaben gelöst und andere Teams gejagt. Den grössten Teil des GUIs nimmt die digitale Karte des 624 Gebäudes oder der Umgebung ein. Aktuell sind folgende Funktionen im mExplorer implementiert, die für das Eventmarketing relevant sind: • • • • • • Digitale Karten und Positionierung: Für Stockwerke/Gebäudeabschnitte können einzelne Karten definiert werden, dazu gehört auch eine Zoomfunktion und automatisches Scrollen / Kartenwechseln. Auf der Karte sieht der Spieler stets seine aktuelle Position und die Position der gegnerischen Teams. Points of Interest: Auf den interaktiven Karten werden Sehenswürdigkeiten als blaue Punkte markiert. Über diese POIs stehen dem Benutzer zusätzliche Informationen in Form einer HTML-Seite zur Verfügung. Aufgabenstellungen: Es lassen sich verschiedene Formen von Aufgabenstellungen definieren, sie sind entweder orts-, personen- oder anlassbezogen und können in Form von Multiple Choice, Slider, offenen Fragen oder kreativen Fragen (Zeichnung, Foto, Audio) gestellt werden. Zusätzlich können die Aufgaben miteinander verknüpft werden (Kettenaufgaben), so entsteht eine fixe Aufgabenfolge. Der Benutzer kann stets die aktuelle Rangliste abrufen. Annotationen: Der Benutzer kann zu jeder Zeit eine Position auf der Karte mit einer digitalen Notiz (Text, Audio, Foto) versehen. Diese sind auch für die restlichen Teams einsehbar. Chat: Senden von Textnachrichten an andere Teams oder den Spielleiter. Jagdfunktion: Jedem Team wird beim Spielbeginn ein Jäger- und ein Opfer-Team zugeteilt. Kommt man genügend nahe an sein Opfer-Team heran, kann man dessen Avatar auf der digitalen Karte anklicken und erhält so Punkte und ein neues Opfer-Team. 3.1. Eignung des mExplorers für das Eventmarketing Schon das ursprüngliche lernorientierte Szenario des mExplorers ist als Event ausgelegt, an dem mehrere Spielgruppen gleichzeitig die Universität erkunden. Dabei werden die positiven Eigenschaften des gemeinsamen Spielens, wie Motivation und Spass, für das Lernen genutzt [13]. Daher ist es naheliegend den mExplorer neben dem Lernszenario auch auf die Einsatzmöglichkeit für das Eventmarketing zu überprüfen. Dies soll zuerst anhand der in Abschnitt 2 vorgestellten drei Elemente des Eventmarketings geschehen. Damit wird auch die Forschungsfrage 1 (s.o.) beantwortet. Erlebnis: Der Erlebniswert des mExplorers ist hoch, was bereits in früheren Feldversuchen gezeigt wurde [13]. Durch spannende und kreative Aufgaben können die Spieler selbständig eine neue Umgebung erforschen oder in einer bekannten Umgebung Neues entdecken. Durch den Einbezug der Umgebung sind visuelle, akustische und haptische Erlebnisse möglich. Man kann also von einem multisensualen Erlebnis sprechen. Zusätzlich haben die Spieler die Möglichkeit sich gegenseitig zu fangen, was den Erlebniswert ebenfalls erhöht. Interaktivität: Der mExplorer enthält mehrere interaktivitätsfördernde Elemente. Grundsätzlich spielte der Spieler zusammen mit einem Partner selbständig das Spiel und interagiert somit aktiv mit dem Spiel, dem Partner, mit dem PDA auf dem das Spiel läuft und mit der Umgebung. Eigentlich kann man sich nur durch „Nichtspielen“ der Interaktivität des Spiels entziehen und ein Eintauchen verhindern. Durch die Verwendung von kontextspezifischen Aufgaben oder Kreativitätsaufgaben lässt sich der Effekt der Interaktivität sogar noch weiter steigern [9]. Inszenierung: Mit Hilfe des mExplorers ist es möglich der Umgebung eine „Geschichte“ zu verleihen. Dadurch, dass man die reale Umgebung zusätzlich mit virtuellen Objekten (Foto-, Audio oder Textanreicherung) ergänzen kann, ein Spielgeschehen hineinlegen kann und verschiedene 625 „geschichten“-spezifische Aufgaben stellt, kann man den Spieler mit hineinnehmen in die Dramaturgie. Dies zeigt, dass der mExplorer grundsätzlich ein sehr geeignetes Instrument für das Eventmarketing darstellt. Der praktische Test der Eignung wurde im Rahmen des 175-jährigen Jubiläums der Universität Zürich durchgeführt. Erstaunlich war die Tatsache, wie wenig man an der eigentlichen Technik für das Eventmarketing ändern musste. Die einzige technische Änderung war das Ermöglichen des Einloggens von beliebigen Spielern zu einem beliebigen Zeitpunkt. Beim Einsatz für das mobilen Lernen war dies nicht notwendig gewesen, da alle Gruppen im Vornherein feststanden und gleichzeitig das Spiel begannen. Die massgeblichen Änderungen betrafen den Einsatz der Technik. Beim mobilen Lernen wird versucht den Spielern etwas über die Umgebung beizubringen. Dazu eignen sich besonders interaktive Aufgaben mit hoher Kontextintegration [9]. Diese sind aber sehr aufwendig für den Bearbeiter. Auch sollten alle Aufgaben beim mobilen Lernen einen logischen Zusammenhang aufweisen und gemeinsam einem bestimmten, vorher formulierten Lernziel dienen. Beim Eventmarketing ist dies alles nicht notwenig. Es geht darum, dass der Spieler eine emotionale Bindung aufbaut und dies geschieht am besten über Kreativaufgaben, welche selbst nur einen losen Zusammenhang haben müssen [9]. Eine Inszenierung wie beim Eventmarketing ist damit weniger aufwendig wie ein Lernszenario beim mobilen Lernen und zielt im Kern auf emotionale Bindung. Beides lässt sich aber sehr gut durch den mExplorer unterstützen. 3.2. Das 175-jährige Jubiläum der Universität Zürich – Der mExplorer im Einsatz Für das 175-jährige Jubiläum der Universität Zürich sollte das Institut für Informatik sich der Öffentlichkeit präsentieren und dabei Werbung für die Universität und das Fach Informatik machen. Im Rahmen der Vorbereitungen wurde überlegt, ob man den mExplorer nicht als Marketinginstrument verwenden könnte. Zusätzlich wurden von anderen Bereichen des Institutes weitere spannende Forschungsprojekte ausgestellt. Jedes Projekt hatte einen Samstag lang einen Stand im Lichthof des Hauptgebäudes der Universität Zürich zur Verfügung. Um das Kontaktziel zu erreichen, also möglichst viele Leute für einen Besuch des Anlasses zu motivieren, wurden die restlichen Marketinginstrumente aktiviert: Eine spezielle Jubiläumshomepage informierte über die Aktivitäten, Plakate und Flyer in der Stadt Zürich luden die breite Öffentlichkeit zum Anlass ein. Bei dieser handelte es sich auch um die angepeilte Zielgruppe für den Event. Am Stand des mExplorers selbst wurden zwei grosse Bildschirme und Plakate zur Werbung für die Teilnahme am Szenario eingesetzt. Während des Anlasses ging es um die Erreichung der Kommunikationsziele. Zum einen sollte die Identifikation der Besucher mit der Universität gestärkt werden. Dies war das Ziel aller Anlässe zur Feier des 175-jährigen Jubiläums. An diesem speziellen Anlass ging es darüber hinaus darum das Interesse an der Informatik im Allgemeinen und das Interesse am mExplorer System und damit an der Arbeit der Arbeitsgruppe im Speziellen zu wecken. Um diese Kommunikationsziele zu erreichen erhielten die Besucher die Möglichkeit ein ca. 30minütiges mExplorer-Spiel zu spielen. Mit Hilfe des Systems ging es darum das Hauptgebäude der Universität zu erforschen und dabei die innovative Technik kennen zu lernen. Durch das Erforschen 626 der Universität sollte das allgemeine Kommunikationsziel, die Stärkung der Identifikation mit der Universität, erfüllt werden. Durch das Erleben der Technik sollte das Interesse an der Informatik und an der Arbeit der Arbeitsgruppe geweckt werden. Das genaue Vorgehen zum Einsatz des mExplorers als Eventmarketinginstrument wird im nächsten Abschnitt beschrieben. 4. Feldversuch Bei der eigentlichen Durchführung des Events am 05. April 2008 galt es zu überprüfen, ob die in Abschnitt 3.2 aufgezeigten Eigenschaften des mExplorers wirklich zutrafen und ob die Kommunikationsziele aus Abschnitt 3.3 auch erreicht wurden. Am Stand der Arbeitsgruppe Informationsmanagement sollte jeder Besucher die Möglichkeit erhalten an einem mExplorer-Spiel teilzunehmen. Unter allen Teilnehmer wurden ein iPod Touch und zwei iPod Shuffel verlost um so die Teilnahme attraktiver zu gestallten. Am Spiel nahmen im Laufe des Tages 38 Personen teil. Davon waren 13 Personen (34,2 %) weiblich. Die meisten Teilnehmer waren Schüler (36,84 %), gefolgt von Akademikern (21,05 %) und Studenten (15,79 %). Die restlichen 26,32 % verteilten sich auf verschiedene Berufe quer durch alle Gesellschaftsschichten. Die Teilnehmer waren im Durchschnitt 24,6 Jahre alt (min: 7 Jahre/ max: 60 Jahre). Auffällig ist, dass im Schnitt alle Personen überdurchschnittlich gut mit Computern vertraut waren (3,97 auf einer Lickert Skala von 1 bis 5). Dies resultiert sicherlich daraus, dass der Event explizit als Tag der Informatik angekündigt war. Es kann also von einer grundsätzlichen Technikfreundlichkeit bei den Teilnehmern ausgegangen werden. Vor dem Beginn des Spiels erhielten die Teilnehmer eine kurze Einführung in das System und ein Merkblatt, welches die Funktionen erklärte. Für das Spiel erhielten jeweils Zweiergruppen einen PDA, auf dem die digitale Karte der Universität und die Aufgaben eingezeichnet waren. Das Spiel war so aufgebaut, dass mehrere interessante Punkte wie Büsten oder Aussichtspunkte innerhalb des Gebäudes angelaufen werden konnten und dort die verschiedenen ortsspezifischen Aufgaben gelöst werden sollten. Zum Beispiel sollte der Büste „Nike von Smothrake“, welcher der Kopf fehlt, auf dem PDA ein neuer Kopf gezeichnet werden. Auf diese Weise konnte man selbständig mit Hilfe des PDA die Universität erkunden. Insgesamt gab es sechs Aufgaben und das Spiel dauerte in etwa 30 Minuten. Nach dem Spiel mussten die Teilnehmer einen kurzen Fragebogen ausfüllen, wenn sie an der Verlosung teilnehmen wollten. 5. Ergebnisse Nachfolgend die Ergebnisse zu Erlebnis, Interaktivität, Inszenierung und Kommunikationszielen. Sie zeigen die Wirkung des mExplorers beim Eventmarketing (siehe Forschungsfrage 2). Alle Fragen auf dem Fragebogen waren geschlossene Fragen, die mit Hilfe einer Lickert Skala von 1 bis 5 beantwortet werden konnten. Dabei stand 1 für gar nicht bzw. überhaupt nicht und 5 für sehr viel bzw. sehr geeignet. Als Randbedingung zu den folgenden Zahlen muss an dieser Stelle ein durch den Ort des Ereignisses gegebenes technisches Problem geschildert werden. Das Hauptgebäude der Universität hat einen überdachten Innenhof (Lichthof), in dem das Experiment stattfand. Der eingesetzte Positionierungsengine basiert auf Erfassung von WLAN Signalen, die sich an den verschiedenen Orten unterschiedlich darstellen. Dadurch, dass sich aber im Lichthof die WLAN Strahlung gleichmäßig ohne die Blockierung von Wänden ausbreiten kann, ist es sehr schwer zu erkennen, in welchem Stockwerk und wo in dem Stockwerk man sich befindet, so lange man sich innerhalb des 627 Einflussbereiches des Lichthofes aufhält. Leider lag 95 % der Spielfläche innerhalb des Lichthofes. Dadurch kam es zu erheblichen Problemen mit der Positionierung. Die Teilnehmer bewerteten daher die Behinderung durch technische Probleme mit erheblich (4,18). Trotzdem war das Feedback zum mExplorer sehr positiv. Als weitere Einschränkung ist sicherlich die kleine Datenbasis von nur 38 Personen zu nennen. Daher ist diese Untersuchung als explorative Analyse einzustufen. Für eine empirisch fundierte Aussage, müsste der Feldversuch sicherlich mit einer grösseren Personengruppe durchgeführt werden. Zudem müsste das Sample besser gewählt werden, da die befragten Personen wie oben beschreiben eher technikaffin waren. 5.1. Erlebnis Trotz der zum Teil erheblichen technischen Problemen mit der Positionierung hat den Spielern die Teilnahme an dem Spiel gut gefallen. Im Durchschnitt wurde der Spielspass mit 3,73 von möglichen 5 Punkten bewertet. Aus dem offenen Feedback im Fragebogen und den Gesprächen nach dem Spiel mit den Teilnehmern wurde deutlich, dass der Spass beträchtlich höher wäre, wenn die Positionierung zuverlässig funktioniert hätte. Zum Vergleich mit anderen Orten, bei dem diese Probleme nicht auftraten, wurde in früheren Feldversuchen im Bereich des mobilen Lernens mit dem mExplorer bereits ein Wert für den Spielspass von 4,68 [7] erreicht. Zusätzlich zum Spielspass wurden die Spieler befragt, wie schnell für sie die Zeit während des Spiel verstrichen sei. Diese Frage fungiert als Indikator dafür, wie sehr die Spieler ins Spielgeschehen eintauchten und ein Flow Erlebnis hatten. Das Ergebnis zeigt, dass die Zeit schnell vergangen ist (3,95). Sicherlich sorgte auch die gute Bedienbarkeit des Systems (3,94) für ein verbessertes Eintauchen in das Spiel. Als Fazit kann festgehalten werden, dass der mExplorer bei den Teilnehmern einen hohen Erlebniswert hinterlassen hat. 5.2. Interaktivität Wie bereits oben beschrieben, hatten die Spieler viel Spass am mExplorer. Eines der Hauptelemente des Spiels sind die interaktiven Fragen. Die Aufgaben im Spiel waren vor allen Dingen Kreativaufgaben, da diese sehr gut geeignet sind um eine emotionale Nähe zum beworbenen Objekt, in diesem Fall die Universität, herzustellen (Göth & Schwabe 2008). Die Spieler wurden danach gefragt, ob die Aufgaben zu leicht (1) oder zu schwer (5) waren. Die Spieler empfanden die Aufgaben als genau richtig (2,94). Bei den einzelnen Fragen bereiteten insbesondere diejenigen Spass, welche man mit einer Zeichnung (3,76) und mit Multiple-Choice (4,00) beantworten konnte. Der Spassfaktor bei Aufgaben mit Texteingabe (3,72) und Audioeingabe (3,2) fiel hingegeben leicht ab. Insgesamt kann man feststellen, dass die Interaktivität mit dem mExplorer und der Umgebung sehr hoch war und den Teilnehmern viel Spass gemacht hat. 5.3. Inszenierung Das Problem bei der Evaluation der Inszenierung ist, dass man nur indirekt danach fragen kann. Spass und Interaktivität sind relativ gut messbar, aber wie gut die Inszenierung an sich gefallen hat, ist schwer festzustellen. Daher wurden die Teilnehmer nach der Übertragbarkeit auf andere Felder gefragt. Dahinter steckt folgende Überlegung: Hat einem die Inszenierung gefallen, so hat man auch viel eher das Bedürfnis die Inszenierung auch in einer anderen Umgebung bzw. für ein anderes Objekt zu erleben. Insbesondere der Übertrag auf ähnliche Objekte wie z. B. Museen und Zoos (4,58) oder ganze Städte (4,50) wurde sehr gut bewertet. Die Übertragbarkeit auf allgemein andere, 628 werbewirksame Attraktionen wurde mit 3,86 etwas schlechter bewertet, wobei dies wohl eher an der unkonkreten Frage lag. Auf die Frage hin, ob man die Umgebung mit noch weiteren Informationen auf dem PDA anreichern sollte, was mit dem mExplorer möglich ist, wurde dies als wünschenswert (4,03) eingestuft. Insgesamt kann man also sagen, dass die Inszenierung mit dem mExplorer sehr erfolgreich war. 5.4. Kommunikationsziel Das Event hatte drei Kommunikationsziele. Zum einen wurde versucht mit Hilfe des mExplorers den Besuchern die Universität näher zu bringen. Dies wurde gut (3,47) erreicht. Im Vordergrund stand aber das Interesse an der Informatik und insbesondere das Interesse an der Arbeit der Arbeitsgruppe Informationsmanagement zu wecken. Hier waren die Ergebnisse noch etwas besser als beim Kennenlernen der Universität. Interesse an der Informatik wurde mit 3,74 und Interesse an der Technik und der Arbeit der Arbeitsgruppe wurde mit 3,97 geweckt. Dass die Technik die Spieler faszinierte, zeigt auch die Frage, wieviel Spass durch die Technik entstanden sei. Dies wurde mit 3,89 beantwortet. In Kombination mit dem Erlebnischarakter und der Interaktivität des Spiels kann davon ausgegangen werden, dass dieses Interesse langfristig in den Teilnehmern des Spieles verankert wurde. Man kann als Fazit festhalten, dass von einer hohen Werbewirksamkeit ausgegangen werden kann. 6. Fazit In Zeiten der Überflutung mit Werbung ist das Eventmarketing ein Instrument, welches die Akzeptanz von Anbietern und Nachfragern findet. Für die Nachfrager einer Leistung macht gut designtes Eventmarketing einfach Spass; für die Anbieter bringt es den Nutzen, dass ein Event eine bleibende Erinnerung beim Kunden hinterlassen kann. Bisher scheiterten viele Bemühungen zum Computereinsatz beim Eventmarketing an der mangelnden Portabilität der Geräte. Mobile Geräte erlauben es beim Eventmarketing die Interaktion mit der natürlichen Umgebung mit der Interaktion mit dem Gerät zu verschmelzen; dadurch wird das Einsatzspektrum von interaktiven Anwendungen deutlich erweitert. In der Aktivierung des Nutzers geht das mobile Eventmarketing deutlich über bisherige Ansätze zum mobilen Marketing (wie z.B. kontextabhängige Werbung) hinaus. Gerade bei der Aktivierung kann das Eventmarketing viel von der Mobile Learning Forschung profitieren [7], da dies ein Kernproblem beim Lernen darstellt. Es gilt den Teilnehmer durch verschiedene Stellgrössen wie Spielregeln, Technikeinsatz, Motivationsform, Aufgabenarten und Steuerungselementen in möglichst hohem Masse dazu zu bewegen sich aktiv mit einem Lern- oder Marketingobjekt auseinander zu setzen. In diesem Artikel konnten wir zeigen, wie man durch einfache Anwendung der Grundprinzipien des Eventmarketings (Erlebnisorientierung, Interaktivität und Inszenierung) zur Gestaltung eines mobilen Systems gelangt und bei dessen Einsatz Kontaktziele und Kommunikationsziele erreicht. Im vorliegenden Fall haben wir den mExplorer für die Erkundung des Events „Informatik an der Universität Zürich“ im Rahmen der 175-Jahr-Feier angepasst. Wir konnten zeigen, wie hoch das Potential eines mobilen Systems für die Förderung des Erlebniswerts ist, wenn mit Navigation, Interaktion und Kommunikation eine geeignete Funktionalität bereitgestellt wird und das Event gut inszeniert ist. Für uns Forscher war überraschend, wie sehr sich dabei die Anforderungen und die Beobachtungen von Eventmarketing und mobilem Lernen ähneln (siehe Forschungsfrage 3). In beiden Domänen tritt neben die Gestaltung von Anwendung gleichwertig eine vorbereitende Aktivität, die sich in einem Lernszenario (beim mobilen Lernen) oder einer Inszenierung (beim Event-Marketing) widerspiegelt. Bei den Tests zum mobilen Lernen überraschte uns noch die 629 grosse Bedeutung der Prozess-Steuerung sowie das grosse Potential, welches mobile Systeme hier haben [5]. Beim Einsatz zum Eventmarketing bestätigte sich dies. Gerade wenn die Teilnehmer kreativ sind, können bei der Inszenierung des Events nicht alle Eventualitäten vorausgesehen werden. Bei unvorhergesehenen Schwierigkeiten obliegt es einem Moderator mit den Teilnehmern Kontakt aufzunehmen und sie ggf. zurückzurufen. Es wiederholte sich auch die Erkenntnis aus dem mobilen Lernen mobile Medien nur zurückhaltend einzusetzen, denn der primäre Erlebnis- und Interaktionsraum ist die Realwelt (in unserem Fall: Die Informatikausstellung an der Universität Zürich). Sonst konzentrieren sich die Teilnehmer zu sehr auf das mobile Gerät und nehmen die natürliche Umgebung nicht mehr wahr (zum „Fokusproblem“ vgl. [6]). Und es zeigte sich in den Tests auch, dass selbst kommerzielle Indoor-Navigationssysteme noch nicht ausgereift sind und insbesondere in grossen offenen Hallen an ihre Grenzen stossen. Natürlich gibt es auch einzelne sachliche bzw. graduelle Unterschiede zwischen dem Eventmarketing und mobilem Lernen: So stehen beim Eventmarketing emotionale Aspekte im Vordergrund, während sie beim mobilen Lernen Mittel zum Zweck sind. Deshalb spielen Effekte eine grössere Rolle, während beim mobilen Lernen die Reflektion und die Vertiefung eine grössere Rolle spielen. Wir konnten in unseren Versuchen aber zeigen, dass dies weniger einen Einfluss auf die Technologie hat, als darauf, wie sie eingesetzt wird. Insgesamt bestätigt unsere Vermutung, dass durch den Einsatz von mobilen Medien Lernen, Arbeiten und Freizeit zunehmend miteinander verschwimmen. Konzepte wie Erlebnis, Kommunikation und Inszenierung treten als übergreifende Konzepte in den Vordergrund, wenn es das Ziel einer Aktivität ist eine „bleibende Erinnerung“ zu hinterlassen. Hier bleibt noch eine Menge interessanter Forschung zu tun. 7. Literatur [1] BECK, S., Event-Marketing in Bibliotheken: BibSpider, 2006. [2] BRUHN, M., Kommunikationspolitik. Grundlagen der Unternehmenskommunikation, Bedeutung - Strategien Instrumente: Vahlen, 1997. [3] DECKER, M., BULANDER, R., HÄGLER, T., und SCHIEFER, G., m-Advertising: Werbung mit mobilen Endgeräten - ein Überblick, in Mobile Informationssysteme - Potentiale, Hindernisse, Einsatz. Proceedings der 1. Fachtagung Mobilitaet und Mobile Informationssysteme (MMS), Passau, pp. 103-114, 2006. [4] EBER, S., Eventmarketing: Erlebnisstrategien für Marken, 3 ed.: moderne industrie, 2002. [5] FROHBERG, D. und SCHENK, B., Analyserahmen zur Lernsteuerung bei Mobile Learning, in Multikonferenz Wirtschaftsinformatik (MKWI) 2008, 2008. [6] GÖTH, C., FROHBERG, D., und SCHWABE, G., The Focus Problem in Mobile Learning, in WMUTE 2006: Proceedings of the IEEE 4th International Workshop on Wireless, Mobile and Ubiquitous Technologies in Education, Los Alamitos, CA, USA, pp. 153--160, 2006. [7] GÖTH, C., FROHBERG, D., und SCHWABE, G., Von passivem zu aktivem mobilen Lernen, in Zeitschrift für ELearning: Lernkultur und Bildungstechnologie. vol. Heft 4: Back, Andrea; Baumgartner, Peter; Reinmann, Gabi; Schulmeister, Rolf, 2007. [8] GÖTH, C., HÄSS, U.-P., und SCHWABE, G., Requirements for mobile learning games shown on a mobile game prototype, in Proceedings of the mLearn2004 conference, Rom, 2004. [9] GÖTH, C. und SCHWABE, G., Designing Tasks for Engaging Mobile Learning, in Proceedings of the mLearn 2008, 2008. [10] KÖLMEL, B., Location Based Advertising, in Mobile Business: Bernhard Kölmel, 2002. [11] LUO, X. und SEYEDIAN, M., Contextual Marketing and Customer-Orientation Strategy for E-Commerce: An Empirical Analysis, Int. J. Electron. Commerce, vol. 8, pp. 95--118, March 2004. [12] PINE, B. J. und GILMORE, J. H., Erlebniskauf: Konsum als Erlebnis, Business als Bühne, Arbeit als Theater: Econ Verlag, 2000. [13] SCHWABE, G. und GÖTH, C., Mobile Learning with a Mobile Game: Design and Motivational Effects, Journal of Computer Assisted Learning, vol. 21, pp. 204--216, 2005. 630 SERVICE-BASED INTERACTIVE WORKFLOWS FOR MOBILE ENVIRONMENTS Sonja Zaplata, Dirk Bade, Ante Vilenica1 Abstract Since the use of mobile devices spreads increasingly, mobile systems also play a major role for distributed business processes. In such scenarios, extending workflow management support to mobile systems offers potential to seamlessly integrate field staff into business processes, even if executing devices are disconnected from the company's server. However, the heterogeneity of current mobile systems still requires complex device-specific descriptions of user interfaces to integrate manual tasks. Therefore, this paper presents an abstract and modality-independent description model to support the development and execution of interactive mobile workflows and a corresponding prototype realization based on a service-oriented execution module. 1. Introduction In many companies, field staff is often already equipped with several mobile devices, such as notebooks, PDAs, or mobile phones. In order to support company-wide distributed business processes which include these employees, mobile devices shall be integrated seamlessly into such processes − despite of their specific technical differences. In such a scenario, mobile devices could be upgraded to run their own (partial) workflows, if the provided workflow management system can adapt to their specific needs. For such a purpose, specialised process description languages and workflow management systems have emerged which describe and execute the control flow of such applications. Unlike traditional workflow systems which are mostly centralized and include mobile clients as participants of single tasks only, more advanced systems focus on the distributed, selfcontained and preferably disconnected execution of business processes on mobile devices by an integrated lightweight workflow engine (e.g. [5, 7, 13]). For dealing with such mobile workflows, manual tasks containing user interactions play a key role. This is primary due to the fact that users carry mobile devices in order to interact with them at any time and place and are using mobile applications which are often related to the user’s posisition or situation. Therefore, business processes executed on mobile devices are rather characterized by context-dependent interactive applications than by automated processes running in the background. Additionally, there are situations where certain interaction modalities are prohibited or inappropriate. For instance, using speech during theater performances or in noisy environments like factory work floors is inappropriate, whereas interaction involving eyes and hands is forbidden 1 Distributed Systems and Information Systems, Computer Science Department, University of Hamburg, Vogt-Kölln-Str. 30, 22527 Hamburg, Germany 631 while driving a vehicle. Thus, a particular challenge for the development of mobile workflows is the specification of interaction tasks and the appropriate integration of manually initiated applications. Due to the heterogeneity of mobile devices, operating systems and network facilities, there is a great variety of possible user interfaces, reaching from audio and video to audio-visual interface modalities. Even within the field of the visual interface modality, screen size, resolution and underlying software systems may vary highly, so interactive applications have to be developed platform-dependent with substantial knowledge about the specific device, its software system configuration [10] and its current situation. Consequently, as a workflow participant, the executing device and its context must be known in advance and each interactive task has to be tailored to each single type of device and for more than one situation, which is in many cases very costly and inflexible. In order to cope with such challenges, an appropriate model for user interactions has to be developed which is independent of a specific platform and context - meaning any combination of mobile device, operating system, and user interface modality. However, rather than developing n user interfaces for n platforms, we suggest to develop only one abstract user interface model which is then automatically tailored to specific platforms at runtime. In addition, such a platformindependent approach has to consider the special characteristics and limitations of current distributed mobile workflow management systems, e.g. the requirement to work disconnected. In order to develop a systematic approach, the following section presents a use case to motivate and identify important requirements for such a platform-independent workflow interaction model. Subsequently, existing work in this research area is analyzed and evaluated in order to provide a basis for an enhanced approach presented in section 3. In section 4, the feasibility of modalityindependent user interactions is shown by the integration of the developed processing module into an existing workflow implementation. The paper concludes with a summary and an outlook on future work. 2. Use Case: Parallel Disconnected Mobile Workflow Processing A typical mobile workflow scenario can be found in the area of field work for marketing research where a high number of mobile users execute the same workflow in parallel. This section summarizes the experiences, observations and requirements of two German marketing research facilities being interviewed on this subject. Marketing surveys have previously been performed by paper questionnaires which had to be produced and distributed, filled out manually and finally had to be collected or sent to the research institution, where they had to be typed into the computer in order to be integrated and evaluated. As this procedure is rather inflexible, costly and time-consuming, the integration of mobile devices could eliminate several of these drawbacks. Due to the fact that marketing research is often characterized by casual employment, the assignment of few special purpose devices is not profitable, but - controlled by a central management system - the existing infrastructure of casual employees (e.g. personal mobile phones) can be utilized to transfer and present questionnaires electronically. First attempts towards the utilization of mobile phones involve the bidirectional exchange of SMS (Short Message Service) or the use of browser-based web applications which both cause unacceptable costs because of their need for frequent or permanent network connections. Another main aspect is the integration of user interactions with automated or semi-automated tasks and application calls. As many interactive applications are only valuable in a specific context, such as performing a measurement at a specific location, the utilization of simple user interfaces, devicespecific interactive applications and even fully automated services is highly interrelated. A use case 632 related example is the integration of a GPS application to attach the current position of market researchers during the interview. Therefore, the ability to integrate user interactions with arbitrary (semi-)automated activities such as software services is an important requirement to build interactive workflows for more than one specialised application or business domain. The necessary integration therefore also implicates an open architecture and an adequate data exchange mechanism, in order to allow control flow decisions based on data entered or automatically processed in previous activities. Figure 1 shows the overall infrastructure for an exemplary survey with electronic questionnaires which are distributed to mobile market researchers: Here, the participating users download the workflow description and start to execute it in parallel, e.g. at different locations. An exemplary workflow is depicted in figure 2. It contains three activities, two of them are user interactions asking the market researcher to enter information about the interview. The last activity calls an application in order to obtain position data of the current location and attaches it to the result set, which is finally returned to the server. Workflow Provision and Distribution Workflow Description Workflow Execution Personal Information Gender: Age: male 49 Local Noise Pollution Do you feel disturbed by street noise in this place? [Application Call] Include GPS data yes no Result Data Figure 1: Parallel disconnected mobile workflow processing Figure 2: Example workflow for electronic surveys However, with a growing number of field workers, the number of different executing devices increases significantly and the customization of otherwise identical user tasks to each single executing device would be very expensive and, considering the assumed cost-value ratio of such market surveys, not profitable. Therefore, a one-for-all workflow description which is also able to access device-specific applications would be advantageous. Such an approach to mobile workflow management systems leads to increased requirements resulting from the heterogeneity as well as from the limitations of mobile systems (cp. [10, 16]). The next section will therefore analyse and evaluate existing work in the area of workflow related user interface descriptions in order to develop an appropriate solution to this problem. 3. Analysis of Existing and Related Work There are two main directions for interactive workflow processes executed on mobile devices − thin client and fat client (resp. rich client) solutions. In the first case, mobile devices present information to and receive input from the user, but the business logic resides on a server in the backend. A common approach realising this is to use web applications running on a central application server, rendering information as HTML pages, which are transferred with e.g. HTTP or WAP to a (mobile) device to be displayed using an internet browser. However, this approach has several drawbacks: For example, an online connection has to be kept as long as the user interacts with the application, which is often neither possible (e.g. indoors) nor preferable (e.g. costs, energy 633 consumption). Furthermore, interaction possibilities are constrained to the elements of HTML or WML and activities which need to access resources of a mobile device (e.g. storage, camera, GPS) are not executable, because such resources cannot be accessed by an internet browser. Finally, application development is more difficult as the server is responsible for managing user sessions and dealing with unreliable network connections. An example for an interactive thin client approach is the Java Border Service Architecture [10]: It allows using a single application instance on multiple heterogeneous devices. This is accomplished by taking a snapshot of an application’s presentation layer at runtime, transforming it into an abstract intermediate representation before converting it according to the (mobile) device's capabilities. Interaction events (e.g. pressing a button) are exchanged between the application kernel and its presentation layer copy by sending messages over a network link. Other solutions rely upon Ajax (Asynchronous JavaScript and XML), which allows to asynchronously fetch data from a server in response to user interactions and to update the HTML interface correspondingly. These approaches, although dealing with some of the aforementioned problems, are not suitable for mobile environments in all cases, as e.g. a stable network link is required but not always available. On the other hand fat client solutions have been developed. In this case, the application as well as the data is stored on the device, user input is processed locally and a network connection is only used to communicate results back to or receive new tasks from servers. Java Micro Edition runtime [17], which is installed on many mobile devices and is most commonly used for developing such applications, does not only allow for arbitrary interaction methods (forms, 2D- and 3D graphics, voice, etc.) but also grants access to most of a device's local resources through standardized APIs. This way, applications may run independently of a network connection, sessions may directly be stored on the local device and once a network connection is available, results may be sent back to a server for further processing. There are several corresponding workflow engines available: The architecture presented by [13] describes a fully service-based workflow engine, running on mobile devices. Users interact with the engine by navigating and communicating through XHTML pages and forms. The results are wrapped in SOAP messages and sent to a local WS-BPEL workflow engine, managing the control flow of the process. This approach focuses on XHTML to describe interactive activities and therefore lacks several interaction possibilities as it is depending on visual modality only. As another example, the Active Forms runtime environment [14] addresses the integration of arbitrary applications, accessible through web service wrappers, into an XHTML- or mobile forms-based user interface. User tasks are described using WS-BPEL [12] and executed by a lightweight workflow engine to orchestrate user interactions spanning multiple applications. As WS-BPEL alone is not appropriate for describing user interactions, two language extensions have been defined: BPEL4People [1] and WS-HumanTask [2]. These allow to specify manual tasks within a workflow, but lack the possibility of describing a user interface in detail. Moreover, WSBPEL itself requires static endpoint references, which is a big drawback if being used in workflows spanning multiple devices in dynamic environments. Summarized, the presented workflow engines in common either require a steady network connection and/or lack the possibility of processing a rich description language for interactive workflow processes. Such a language is used to describe (interactive) activities by defining interaction components as well as flow elements specifying the temporal-logical course of actions. Existing languages can be classified by the artefacts used to define an interactive workflow and its activities. Two approaches can be distinguished: abstract and model-based descriptions. The User Interface Modelling Language (UIML) [11], for example, is a representative of the abstract description family. UIML allows defining interface elements in an abstract – device independent – way, but lacks a mapping to concrete presentation components as well as the integration of control 634 flow logic. The Extensible User Interface Language (XUL) [4] is another abstract description language, which is not – in contrast to UIML – transformed to a specific language, but interpreted at runtime. It is used, for example, by Mozilla’s Firefox applications to create the user interface and is interpreted by the Gecko Rendering Engine at runtime. But as XUL can only describe graphical user interfaces, it is bound to the visual modality. Similar drawbacks also hold for other abstract description languages, e.g. MXML [3], XAML [8] and XForms [18]. A popular representative of model-based approaches is the ConcurTaskTree (CTT) [15]. Tasks a user has to perform are decomposed into smaller subtasks leading to a task tree. The tree’s leaves represent the interaction components and are connected by binary operators to state, e.g. whether two tasks have to be executed sequentially or in parallel. Additionally, dialogs, presentations and users are part of CTT’s vocabulary and are used to group tasks to further specify the control flow and to personalize interfaces. The drawback of native CTT as a description language has its roots in the orientation of CTT towards client/server environments. This leads to an insufficient support to model data and control flow as well as non-functional requirements. Nevertheless, CTT is most suitable to form a basis of an abstract interface language for mobile workflows, not only taking into account the design of multimodal interaction methods but also the dependencies between different activities and the heterogeneity of platforms. Moreover, a graphical modelling tool called TERESA [9] supports the development of CTT-based interface descriptions. 4. Service-based User Interactions for Mobile Workflows Workflow-based applications such as presented in the use case (cp. section 2) require a platformindependent interaction model and an appropriate processing module to relieve process designers from considering the system-specific behaviour of each executing device and its potential situation. Based on the experiences of existing approaches as analyzed in section 3, this section first introduces an abstract interface model to describe user interactions in a platform-independent way. In the following, a prototypical realization of a corresponding mobile interaction service as a loosely coupled workflow management module is described and integrated into an existing workflow management system. Finally, experiences with the technical evaluation of the developed prototype are pointed out. 4.1. Abstract Interface Model The ConcurTaskTree (CTT) [15] has proved to be a suitable approach to form the basis of an abstract interface model for mobile workflows, but still lacks an appropriate description of data and control flow. The developed enhanced model is therefore made up of three main artefacts: One represents elements to define the user interface, one for the control flow and another for the data flow. Additionally, there are elements to define non-functional requirements as well as stylesheets. Due to space limitations, this section focuses on the artefact for the user interface and gives only a brief overview of the other artefacts as they correspond to traditional abstract workflow languages such as described by the Workflow Management Coalition (WfMC) (cp.[19]). From a high level point of view, user interactions can be characterized as a sequence of manual tasks of data input and output. To describe elements dealing with user interaction in a platformindependent way, the proposed model includes a preceding interface layer. Key concept within this layer is a meta-description of user interface elements. At runtime, the abstract user interface model, e.g. the elements of the interface layer, is automatically transformed into a platform-dependent description. This mapping takes care of the specific capabilities of each platform. 635 For the development of platform-independent user interface models, basic user interface elements as needed in interactive business processes have been identified. Figure 3 shows the resulting structure of the interface model, containing the most relevant elements and attributes. Centrally, there is a need for elements covering the input and output of data edited by the user. This group of elements is called Edit. Second, there is a demand for elements which deal with data that cannot be edited but selected - referred to as Selection. Third, elements are needed to trigger actions or to navigate within user interfaces which are called Control. In order to model abstract user interfaces, any of these three elements can be combined arbitrarily. Thus, an abstract user interface model, called Presentation, consists of several of those basic user interface elements. A full mobile workflow or Process, can consist of several Presentations. It is important to mention that the three basic user interface elements can be tailored towards a special usage by adding certain metadescriptions. For example, Selection can either be Single-Selection or Multiple-Selection indicating if one or more elements can be selected from a set of elements, e.g. a list. Moreover, Edit elements can predetermine a certain data type, such as String or Decimal, to facilitate further processing. 01 Process Name="Noise Pollution Survey" Process (1) 02 InteractionActivity ID="First" InteractionStartActivity="True" (Stylesheet=...) Interaction Activity (1..n) (ID=…; InteractionStartActivity=...) Presentation (1..n) (Name=….) Interactor (1..n) (ID=…; Direction=…) User Interaction Details (1) (Description=…) User Interaction Type (1) Selection (SelectionType=…; CardinalityType=…) Edit (EditType=…) Control (ControlType=…) Object (1) (Name=…; Type=…; Value=…) 03 Presentation Name="ZipCode" 04 Interactor ID="Zip" Direction="Out" 05 UserInteractionDetails Description="Enter your Zip Code:" 06 UserInteractionType EditType="String" 07 Object Name="Code" Type="String[]" Value="" 08 Presentation Name="Street/Opinion" 09 Interactor ID="Street" Direction="InOut" 10 UserInteractionDetails Description="Select your street in $Zip:" 11 UserInteractionType SelectionType="SingleSelection" CardinalityType="High" 12 Object Name="Streetlist" Type="String" Reference="Remote" Value="http://www.streetlists.org/$Zip.xml" 13 Interactor ID="Opinion" Direction="Out" 14 UserInteractionDetails Description="Noise Pollution:" Optional="True" 15 UserInteractionType SelectionType="SingleSelection" CardinalityType="Low" 16 Object Name="Choices" Type="String[]" Value="[Low|Medium|High]" Figure 3: General structure of the abstract user interface model (selected attributes only) Listing 1: Exemplary interaction activity from the market research domain There are various options to turn an abstract element into a concrete one. Listing 1 gives an example of two user interface descriptions (lines 3-7 and 8-16) using the introduced model. As mentioned previously, the platform-independent model also has artefacts to describe the control and data flow. Therefore, each basic user interface element (called Interactor) has a data output and input container to which user input is written or can be read from respectively. An example can be found in lines 9-12, where $Zip is as well input as output parameter (indicated by Direction=”InOut”) and refers to the contents of the Interactor with the respective ID in line 4. 636 Furthermore, these data containers support the use of references which allows the integration of local or remote elements within a user interface. Accordingly, in the given example contents of a selection element can be downloaded at runtime (line 12), which is advantageous if the actual execution of an activity is optional or is, e.g. to be decided in dependence of previous input data. Provided that a network connection can be established, this option allows to save memory space and to load large objects only if they are actually required. Finally, the proposed model gives the opportunity to specify non-functional requirements and stylesheets (not depicted). With these two groups of elements it is possible to bind a user interface element to a special interaction modality (for example, displaying a large image might need a certain screen size) or to specify the Look-andFeel of the application. By ignoring these additional descriptions, the respective interpreter can initialize a fallback to other (suboptimal) modalities if applicable. 4.2. Mobile Interaction Service The developed mobile interaction service is a device-specific component which can be attached to the mobile system's workflow engine or can be utilized as a lightweight stand-alone system running on a mobile device. It hides platform-specific characteristics from the process designer such that it does not matter which mobile device is used or which interaction modalities is supported. Therefore, its main tasks are to automatically transform the abstract user interface model into a platform-specific presentation and to manage the user's input. In order to achieve the mapping from abstract user interface objects to specific ones, each mobile interaction service has knowledge about the platform specific capabilities (e.g. user interface elements, supported interactions modalities) of the mobile device it is running on. To avoid developing an individual execution environment for each single device, the current prototype environment is based on the J2ME device classification [17] which is applicable to most of today's mobile systems such as notebooks, PDAs and mobile phones (cp. figure 4). Thereby, device-specific adaptations can be minimized and do mostly affect the runtime environment for certain interface modalities, such as audio and video representation. Of course, the interaction service can as well be realized in any other programming language supported by the mobile device. Parent workflow engine’s control flow Java 2 Platform, Micro Edition (J2ME) Optional Packages Java 2 Platform, Enterprise Edition (J2EE) Optional Packages Java 2 Platform, Standard Edition (J2SE) Optional Packages Personal Basis Profile Foundation Profile JVM JVM Abstract interface description Personal Profile CLDC KVM Interaction Management Instance Mapping of result data to parent workflow description Java Card Modality 1 Modality 2 User Interaction Result Writer Card VM Interaction Factory Modality n Control Flow Processor MIDP JVM Parser/ Interpreter (optional) Optional Packages CDC Interaction Service User Input Input Input Processor Result data User Figure 4: J2ME architecture and resulting device classification [17] Figure 5: Schematic diagram of the prototypical interaction service Because the concrete implementations differ slightly w.r.t. device classes and modalities, figure 5 gives a schematic overview of the overall architecture. Once an abstract description is received by the interaction service, the description is parsed and interpreted in order to create an internal model which acts as a basis for the Interaction Factory to create a modality-specific interaction dialog. This approach is flexible enough to incorporate any events that happen at runtime and hence allows adapting the interaction to the current context and system specifics by choosing an appropriate modality. The Interaction Management Instance is responsible for presenting the created dialog to 637 the user and accepting any user input. Afterwards, the user input can optionally be fed into the interaction service’s internal Control Flow Processor to realize a sequence of interactions without intervention by the workflow engine. Finally, when the user completed the interaction, his input is encoded by the Result Writer and passed back to the workflow engine to be integrated into the overall process description. 4.3. Integration Due to its service-orientation, the mobile interaction service can be plugged into existing workflow management systems or can be integrated as an invoked application, as e.g. considered by the WfMC [6]. In order to show the feasibility of the presented approach the platform-independent interaction model and its corresponding interaction service have been applied to the workflow system as presented in the use case. receive Workflow (Web Service) Development and analysis (Graphical) workflow modelling application External applications to view, export and analyse result data upload Results (Web Service) Participant Descriptor Participant Manager Communication Manager Application Descriptor Application Manager send results Interactive workflow model Result data start execution receive workflow Workflow Instance Manager return Server Workflow Execution Engine Web application store Web Service Web Service Interactive workflow instance fetch Workflow Repository Result data execute application Mobile device return Personal Information Gender: Age: Exit ... Interaction Service Camera Service Result Repository GPS Service Mobile workflow engine Interaction Service Script Repository male 49 User OK Figure 6: Global system overview of the mobile market research workflow distribution Figure 7: Schematic diagram of the mobile market research workflow engine As introduced, one of the main goals is to cover and support the entire lifecycle of electronic surveys running on different mobile phones. The corresponding lifecycle starts with modeling the survey, continues with its distribution to mobile devices, goes on with its execution, and finishes with returning the result data to the market research office (cp. figure 6). The first step includes modeling the interactions in the abstract format which is usually performed on a stationary system, such as a personal computer, and supported by modeling tools such as an XML editor or TERESA [9]. As a result, the mobile workflow is described in an XML document containing the control flow logic (here in an XPDL [19] derived language format) and the user interactions specified valid to the abstract interaction model’s XML-schema. In the second step, the workflow description is 638 stored on a web server, from where it can be distributed to mobile devices by using a web service. As the web service is accessible from mobile devices, everyone participating in the research can download the workflow description, store it in a local workflow repository and pass it to the mobile workflow execution engine once it shall be executed. Each time an interactive activity is discovered, the workflow engine calls the interaction module, which produces an appropriate interface representation, collects the user's input data and then returns the control flow back to the workflow engine. Figure 7 shows an overview of the workflow engine’s architecture and the integration of the mobile interaction service. As the workflow description specifies both control and data flow, mobile devices can execute the workflow autonomously and no connection to the server is required during runtime. When the mobile workflow has finished, its results may be stored on the mobile device until an appropriate network connection is available. As the last step of the workflow lifecycle, the mobile device returns the results to the web server, again using a web service. Finally, the results of the mobile workflow can be downloaded from the server, can be further processed, or they may trigger other applications. 4.4. Implementation Evaluation The implementation and integration of the interaction service is straight forward. Two versions have been realized: one for PDAs (using J2ME’s CDC) and another one for resource constrained mobile phones (using CLDC accordingly). The prototypes have been developed and tested using the emulators of Sun’s Wireless Toolkit as well as Nokia’s SDK, which are able to simulate a PDA and a mobile phone respectively, offer support for application profiling and configuration options to change device and infrastructure properties (e.g. processing speed or network bandwidth). As these emulators use different renderings for user interfaces, the mapping of abstract interaction objects (AIO) to concrete interaction objects (CIO) could be optimized. By finalizing certain milestones, the application was also deployed and tested on real devices. The result shows that, due to vendor-specific interpretation of concrete interaction objects, the visual user interface differs slightly from device to device and emulator to emulator. With respect to the layout of components, this is not a problem. A more aggravating factor is, however, the vendor-specific mapping of navigation keys and menu placements which, in some cases, hinder an intuitive navigation (e.g. use left and right buttons for back- and forward navigation). As some mappings of AIOs to CIOs were expected to be quite resource-intensive, the actual prototype implementation showed the opposite: Although performance issues were not explicitly considered, parsing of the abstract process description (using kXML) as well as the creation of AIOs and the mapping to corresponding CIOs are performed nearly instantly, i.e. within parts of a second. Slight performance drawbacks only appear when large binary data chunks (e.g. audio data or an image taken by a phone’s camera) shall be stored as results in the process description. In this case, binary data is Base64-encoded, which takes less than 5 seconds (for a 2 megapixel image) on the mobile phone, but approximately 30 seconds in Sun’s emulator on a PC. Apart from this, users are not aware of the on-the-fly creation and composition of user interfaces. The interaction service itself has been realized as a self-contained component which can either be attached to an existing workflow engine or used as a lightweight stand-alone system. The same service wrapping concept has also been applied for accessing the mobile phones local resources, (e.g. storage, camera, GPS) in such a way as to enable straightforward access to these services from the workflow execution engine, as depicted in figure 7. 639 5. Conclusion and Future Work This paper argues that mobile workflow management systems would benefit from a one-for-all approach to design modality-independent user interactions. Therefore, an abstract interface description model is introduced which allows the specification of user-centric workflows without knowledge of the executing device type or its environment. To interpret and to process interface descriptions resulting from this model, a corresponding service-based interaction module has been developed. To show its applicability, a prototypical realization of this module has been integrated into an existing mobile workflow management system, enabling the integration of user interactions with other interactive applications such as the internal camera of a mobile phone. Furthermore, if more than one interaction modality is available (e.g. video or audio), the most appropriate way of interaction can be chosen dynamically and in dependence of the current context situation. Future work includes solutions for the selection of appropriate participants depending on their context as well as support for automatic workflow distribution. Therefore, advanced management functionalities for mobile information retrieval are required, e.g. regarding the location or current workload of potential workflow participants. It is currently evaluated, whether mobile web service technologies can be applied to provide such informational services for each registered mobile device while respecting the privacy requirements of the mobile user. Such an approach could finally facilitate the definition of the overall business process, e.g. by involving the mobile participant selection procedure in a superordinated process description (e.g. WS-BPEL) to integrate and execute such tasks automatically. 6. References [1] Agrawal et al., BPEL4People Specification 1.0, https://www.sdn.sap.com/irj/sdn/bpel4people, 2007. [2] Agrawal et al.: WS-HumanTask Specification 1.0, http://download.boulder.ibm.com/ibmdl/pub/software/dw/ specs/ws-bpel4people/WS-HumanTask_v1.pdf, 2007. [3] Coenraets: An overview of MXML, Adobe Inc., www.adobe.com/devnet/flex/articles/paradigm.html, 2004. [4] Goodger, Hickson, Hyatt, Waterson: XML User Interface Language (XUL) 1.0, Specification, http://www.mozilla.org/projects/xul/xul.html, 2007. [5] Hackmann, Haitjema, Gill, Roman: Sliver: A BPEL Workflow Process Execution Engine for Mobile Devices, in: Proceedings of 4th International Conference on Service Oriented Computing (ICSOC), 2006. [6] Hollingsworth: The Workflow Reference Model, WFMC-TC-1003 1.1, 1995. [7] Kunze, Zaplata, Lamersdorf: Mobile Processes: Enhancing Cooperation in Distributed Mobile Environments, in: Journal of Computers, 2(1):1-11, 2007 [8] Microsoft Corp.: XAML, msdn.microsoft.com/en-us/library/ms747122.aspx [9] Mori, Paterno, Santoro: Design and Development of Multidevice User Interfaces through Multiple Logical Descriptions, in. IEEE Transaction on Software Engineering 30, Nr. 8, 2004 [10] Müller-Wilken, Wienberg, Lamersdorf: On Integrating Mobile Devices into a Workflow Management Scenario, in: Proc. 11th International Workshop on Database and Expert Systems Applications (DEXA), 2000. [11] OASIS: UIML Standard, www.oasis open.org/committees/tc_home.php?wg_abbrev=uiml, 2007. [12] OASIS: WS-BPEL Spec. 2.0, www.oasis-open.org/committees/tc_home.php?wg_abbrev=wsbpel, 2007 [13] Pajunen, Chande: Developing Workflow Engine for Mobile Devices, in: Proceedings of the 11th Enterprise Distributed Object Computing Conference (EDOC), 2007. [14] Pajunen, Chande: ActiveForms: A Runtime for Mobile Application Forms, in: Proceedings of the International Conference on the Management of Mobile Business, 2007. [15] Paterno: Model-based Design and Evaluation of Interactive Applications, Springer 2007 [16] Satyanarayanan: Fundamental Challenges in Mobile Computing. In Proceedings of the 15th ACM Symposium on Principles of Distributed Computing , 1996. [17] Sun Microsystems, Inc.: J2ME Technologies Overview, Datasheet Overview Java 2 Platform Micro Edition, 2002. [18] W3C: The Forms Working Group, www.w3.org/MarkUp/Forms, 2008 [19] WfMC: XML Process Definition Language, Version 2.0. Specification WFMCTC-1025, 2005. 640 AN INTERACTIVE REMOTE VISUALIZATION SYSTEM FOR MOBILE APPLICATION ACCESS Marcus Hoffmann, Jörn Kohlhammer1 Abstract This paper introduces a remote visualization approach that enables the visualization of data sets on mobile devices or in web environments. With this approach the necessary computing power can be outsourced to a server environment. The developed system allows the rendering of 2D and 3D graphics on mobile phones or web browsers with high quality independent of the size of the original data set. Compared to known terminal server or other proprietary remote systems our approach offers a very simple way to integrate with a large variety of applications which makes it useful for real-life application scenarios in business processes. 1. Introduction Looking forward to the growing mobilization of the work force and data access, one focus of visualization these days is to use known visualization techniques on mobile devices. The main challenge in mobile computing is limitation of limited hardware resources. At the same time the data transfer rates have grown in the recent years. It is now possible to establish peer-to-peer data connections between mobile and portable devices and stationary hardware. Data flat rates for mobile access using e.g. WiFi or 3G wireless networks become more and more affordable. Looking further at this evolution, we expect the usage and acceptance of streaming data to mobile devices to grow in the coming years. Terminal server applications and proprietary remote visualization solutions tried to address these problems in the past. Nevertheless these technologies aim for specific solutions and have constraints regarding the flexible integration and functionality porting to the mobile device. This paper presents a system that allows the user to interactively use high quality 2D and 3D graphical content with slim clients like smartphones or PDAs. The visualization system is designed to connect to a variety of applications on the server side and transmit the pre-calculated visualization data to a mobile client where the user can interact with the server-sided application in real-time. The application can use all hardware provided by the server. The mobile client gets visualization results of highest possible quality regarding to what the server application can achieve. This objective can be fulfilled through a streaming connection between the mobile client and the application located on the visualization server. Except the addressing of limited hardware possibilities of mobile devices another benefit of a remote system that has to be taken into account 1 Fraunhofer IGD, Darmstadt, Germany 641 is a security issue. Transmitting pre-calculated and rendered data to a mobile device without sending the real application data is a big advantage looking at secure data transmission for applications handling confidential data on the server side. The data itself is safe behind firewalls and only used by the application on the server side. The only data sent to the client is the remote image data. 2. Related Work 2.1. General approaches Enabling visualization on mobile devices has been a major research topic in recent years. The main goal of the research in this area was to achieve interactivity on slim devices like Smartphones or PocketPCs with very limited hardware properties regarding complex calculations. Generally there are two ways to achieve such visualizations. The first approach aims at the development of toolkits and algorithms to provide the mobile device with highly compressed and optimized data for visualization and a framework running on the mobile device itself to render the received data sets. Here, Pulli et al. [13] or Soetebier et al. [19] have achieved very interesting results presenting a framework for mobile 3D visualization with OpenGL ES [12] and M3G [14]. With the approach in M-Loma [9] has targeted the area of geographic visualization to bring 3D city maps and landscapes to mobile phones and achieved excellent results in the field of rendering on mobile devices. The second major approach is to outsource the calculations for visualization to a server and transmit the completed results in form of images or video streams to the thin client. Engel et al. [4], B.O. Schneider and I. M. Martin [17] or SGI’s VizServer [18] have shown methods how to visualize complex 3D data on mobile devices with the focus on special applications or systems a few years ago. Other approaches described by Teler and Lischinski [22] or Soumyajit et al. [20] especially in the area of 3D remote rendering use distributed image-based transmission of parts of the 3D scene and re-arrange the images and imposters on the client-side to complete the 3D scene with pre-rendered images from the visualization server. However, these approaches target either special data structures and data sets or special applications where they integrate their remote functionality. Our approach aims for a more generalized solution in the remote visualization area to be able to use one system for a number of different applications instead of implementing specialized and proprietary solutions for each different application. Basically it does not require a specific application or server solution to work with. The application only needs the capability to capture the content that is targeted for remote visualization and an interface to listen to incoming interaction events. For some development frameworks (QT [15], MFC [10], Java [6]) this functionality is provided within a plug-in library, for others generalized methods to input the captured image data into the plug-in for further processing and transmission to the mobile client are provided. 2.2. Yet another Remote Desktop Application? A variety of virtual network computing (VNC) applications [16] [24] was developed in the recent years to gain remote workers access to workstations from everywhere. For every popular operating system different applications are available such as the Microsoft Windows remote desktop [10] or RealVNC [24] for windows and Linux operating systems. The VNC applications provide access to the complete desktop of the remote workstation. This paper describes a more sophisticated approach. Basically, our system will not give the mobile user access to the complete desktop with 642 all its functionality and access to critical system parts. Only the relevant parts of the application will be visualized for the transmission to the client-side and only these parts are available for interaction. Which parts this will be can be defined by the administrator that integrates the application with the remote system. Another issue with VNC visualization is included by the use of OpenGL or other 3D content visualization on the server environment for different reasons. Either they gain access to different users at the same time but having problems with hardware accelerated visualization technologies or they gain access to one remote user per session being able to use hardware features for the remote visualization. The reason for the problems in hardware acceleration for different users at the same time lies in the fact that such solutions make use of software emulated graphics adapters. These emulators do typically not support hardware accelerated features as needed for e.g. OpenGL. Terminal server solutions are some kind of similar to VNC solutions but terminal server solutions are optimized for special programs on the server and the client side. Furthermore real application data is transmitted between the client and server side which makes the application vulnerable for hacking or spy attacks. Since the only data this solution transmits is image data from the server to the client and proprietary interaction data from the client back to the server which only can decode the remote server we have achieved to have a very robust solution looking at security issues. 3. System Concept The basic concept of this visualization system is the outsourcing of all calculations necessary for the visualization to a server environment. Instead of transmitting the data to the mobile client and doing the visualization calculations on the mobile device the visualization application is running on the server. The thin client only has to render 2D image data and capture interaction from the client user. The interaction data is then transmitted back to the server environment for post processing and adaptation of the current visualized scenes. Figure 1 shows the basic communication pipeline between the application itself and the mobile clients on the other side using the render server in between. On the server side, at least two programs are running. The first one is the application itself which contains all the visualization functionality and technologies which has to be provided for the mobile client. Since the application is running on the server side of the overall system it can make use of all hardware advantages the server provides. Therefore very complex calculations and visualizations can be done using the latest hardware features on the server side. Figure 1: The complete communication pipeline. 3.1. Render server The render server component consists of three major parts: the network interface, the image processing engine and the application interface. Basically, the system provides a one to one connection from the mobile client to the remote application. However, more than one mobile client will be able to connect to the same remote enabled application. All clients connected to one instance of the application will see the same visualization and each mobile client will see the same interaction and remote steering from all connected devices. 643 To provide different views to different users it is possible to start multiple instances of the application on the server side and connect each different mobile participant to a different instance of the remote enabled application. Then, every mobile user will have its own visualization not shared with others and can interact with it independently. Figure 2 shows the render server’s architecture, its components and how the components communicate with each other. Figure 2: The render server system layout 3.1.1. Network Interface The network interface handles the network communication between the render server and the mobile client. At its current state it supports two options: Communication over TCP/IP for LAN, wireless LAN or 3G connections and the communication over Bluetooth for short distance connections. Both protocols are integrated into the mobile client application and the render server and can be used. The first part of the network interface is the client manager. It provides a server socket that is listening for incoming connection requests of mobile clients. It handles the connection procedure and the management of multiple clients. This management includes the correct routing of the different clients to their according application instances for remote visualization. The second part is the worker area for connections to the different clients. This part of the network interface takes care of the creation of the network stream from the compressed image data incoming from the image processor. The network connection to the client runs in its own thread which grabs the image data from a buffer provided by the image processing engine every time the client asks for a new image. Another thread is running in the network interface for incoming interaction request. Here, all commands incoming from the mobile client are decoded and sent back to the application interface. The application then grabs the commands from the interface. Every application can then interpret the commands individually. 3.1.2. Image processing engine In this engine the encoding of the captured raw image data into a stream able image or video format is done. Furthermore the capture functionality for selected application frameworks and technologies is integrated here. The image processing engines provides a number of different algorithms used to compress images like JPEG, J2K, PNG, GIF, Motion JPEG etc. Chapter 4 discusses in detail the utilization of image-based transfer in comparison to video streaming. The image processing engine can be extended by additional compression algorithms. The engine provides the current state of the visualization within a buffer. This buffer is updated for each change of the content in the application. Then, a new image will be encoded and stored into the buffer. From that buffer, the 644 network interface will grab the image and encode it into a network stream that is sent to the mobile client. 3.1.3. Application interface and integration This is the interface for the visualization application to communicate with the render server or the mobile client on the other side of the network pipeline respectively. The application has to use this interface to the render server because it provides the application with all functionality that is necessary for the remote connection. This basic interface makes it is very simple to connect new applications to the render server functionality. The render server’s application interface consists of two parts that must be connected with the application: The first part is the capturing functionality. Here, the application makes use of algorithms integrated into the render server interface to capture either the complete application window or only certain parts of the application. For a number of popular development frameworks like Java, QT, MFC or OpenGL context widgets image grabbers are integrated into the application framework of the render server to alleviate the integration of the remote system for the user. The interface is designed in a way that it can be extended with more functionality regarding the grabbing of content from an application. The application can also decide to capture the content by itself and supply only raw image data. In this case, the image processing engine will be provided with the captured raw image data for further processing. The other facility of the application interface is a command interface which is triggered every time the mobile client sends an interaction request. This request is only an undetermined command coming from the mobile client and routed through the render server to the application interface. In the current version, the application does the command message handling, interpret the command and trigger the according functionality inside. In summary, it can be stated that the effort to integrate the remote visualization functionality into existing applications is kept very low. The developer only has to decide which part needs to be exposed to remote users and let the interface capture this part. 3.2. Mobile client The mobile client was realized using the Java Micro Edition (JME) [5] to maximize the compatibility on different devices. Almost all currently available mobile devices are able to interpret JME applets. Furthermore, such applets can easily be integrated into a website. Hence, one mobile application can be used to connect to a large number of different remote applications using a large number of different mobile devices. This was one of the main goals of our work – to be able to have a generalized solution for mobile visualization without having too much effort to adapt every new application to the clients or, even worse, to the device it will be used on. Simply spoken, the mobile client does nothing else than rendering 2D images to its screen device and sending back interaction commands to the render server using the Java API. More specifically, the mobile client contains the following components: The network component, the user interface and the mobile control component. An architectural overview of the mobile client is illustrated in Figure 3. The network component contains the functionality to connect to the render server, receive the image stream and send out interaction and acknowledge commands to the render server. The send and receive functionality is running in different threads to be able to asynchronously send out commands to the visualization application on the server side. The mobile control part of the client captures all events coming from the mobile device and converts them into network commands. These commands are sent to the server asynchronously. Currently, the set of commands that can be sent from the client to the server is pre-defined. The user interface can be designed independently from the application on the server side. All the client need is an area for 2D image rendering for the 645 remote data. Additional interaction functionality can be integrated using interface elements like menus or buttons. The render server can capture the complete application on the server side and visualize it on the mobile client. In this case it is sufficient to capture mouse and key events for steering the application. Figure 3: Mobile client architecture Each time the mobile client has finished the rendering of a 2D image it sends out a flag to the render server for synchronization. This flag signals the render server to send the next image or pack of multiple images. This is necessary to keep the mobile application synchronized with the application connected with the render server. Since the render server can encode and send images very fast, the bottleneck of the whole system lies on the mobile client side. Most of the mobile clients have either very limited hardware resources or only access to bandwidth-limited networks. Taking these conditions into account the render server should never send more image data then necessary. To prevent the server from producing unnecessary network traffic it waits for the flag from the client to update the image stream. 3.3. Security issues Most of the applications to be used with the remote clients are located behind firewalls. Therefore, it is necessary to establish a communication instance in front of the firewall to be able to establish a secure connection to the render server plug-in of the application in the back of the firewall. For that reason a small Java application was developed which is running on a server in the so-called demilitarized zone (DMZ). This server is running in front of the firewall and will be able to accept most incoming connection and communication attempts, but it is not able to send data through the firewall to the secure area. In the secure area another server is running. An implicit advantage of remote visualization systems in general is the fact that only image data is transmitted. Even if an attacker would hijack the communication between the client and the render server he would only get rendered images from the application on the server side. The raw – and possibly confidential – data is located behind a firewall on a server that can not be accessed. Since the communication protocol uses proprietary commands that can be defined by the user it is very hard to tunnel the firewall using our remote protocol. 4. Discussion This chapter will discuss our approach to stream interactive visualization data from the client to the server. First of all, the remote client gets its data image by image. This means that the server grabs 646 the content and saves every image into a buffer. From the buffer a server thread creates a network command that will be transmitted to the remote client. An obvious alternative that comes to mind is to use a video stream. There are three reasons why we do not use a video stream. The first thing to take into account is the ability of the client to decode data. Decoding of video streams requires CPU power that is a scarce resource on mobile hardware. Especially taking into account that the device does not only have to listen to the video stream but furthermore has to mange interaction commands from the user makes such a solution even less useful. The second issue is the ability of the server to encode video streams in real-time. We have tested several encoders for different video streams like e.g. MJpeg or Mpeg4 [8]. These tests clearly showed that a standard computer will not be able to encode a video stream in real-time from an image chain provided frame-by-frame The best result reached frame rates of around 2 to 5 when using software encoders and the latest standard CPU hardware available. Even the use of multi-core CPUs does not give any advantages to the frame rate that can be provided by the server, because the image compression for a network stream can not be parallelized to be more efficient. The third point to take into account is mainly a synchronization issue and this is the major reason for deciding against video stream based visualization. Video streams with high compression rates typically consist of enclosed sequences of images. Within these sequences, single images are compressed using techniques that differ from format to format. But generally on the decoder side these sequence blocks must be decoded at once because the single images inside the sequence have certain dependencies on their parents. However, the current sequence has to be completely processed by the client before the client can react to the latest interaction. Therefore the user would have the experience that the remote visualization does not react immediately to its interaction requests. Especially when navigating in 3D scenes with fluent animations it makes a huge difference if a camera movement appears in realtime to the user when he started it or if the user has to wait a second until his interaction appears on the remote device. In summary, for our application scenario an on demand single image transmission is the most adequate solution. We have tested a variety of compression formats like jpeg (with different quality settings from 30% up to 100% quality), png, bmp or zip on a dual core processor machine. Here, the jpeg and png compression have proved to be the most useful for the proposed system. Most mobile devices are able to decompress jpeg or png using their hardware resources which makes the decompression procedure very fast on the client side. On the server side png requires more CPU resources than jpeg but none of these two compression methods takes the CPU to its limits when not exceeding image sizes of around 1024x768 pixels. This scalability issue is obviously a minor problem on smartphones or very slim devices with small displays but has to be considered when talking about remote solutions for web environments. Approaches to address especially the support of large solutions are described in chapter 6 in the future work part. The hardware requirements on the server side for the support of a large number of simultaneous users are the biggest scalability challenge. After all, the more independent visualizations the user of such a system wants to provide, the more instances of the application have to run on the server simultaneously and the more hardware performance is required to achieve reasonable frame rates. This is, of course, hardly a new problem, but rather a well-known issue that has been researched intensively by the network and service management community [1]. Depending on the application, the number of clients and the request rate it is possible to find the most cost-effective solutions. One major scenario for our application is to connect multiple remote clients to the same visualization. In that scenario only one application runs on the server side and multiple users are connected to that single server application. Since the render server buffers the captured images, this buffer can be used to broadcast the current image to every connected client, which causes only low additional server load. 647 5. Application Areas Due to the flexibility of the introduced system, the fields of application are numerous. The generic client implementation and the usage of the JME platform allow the client application to be ported to a variety of mobile devices as well as used in a web browser. The simplicity and flexibility of the render server interface allows the integration of the technology into a large variety of applications in the computer graphics area. Figure 4: The application FinMotion and a game client with captured graphics content on a mobile phone. The render server application interface was integrated into three completely different applications: One written in C++ using the QT platform that uses a scatter plot visualization of financial data called FinMotion [23], one gaming application using OpenGL rendering, and a Java application that visualizes cloth simulation in 3D and in real-time [7]. Especially the gaming application and the cloth simulation application make exhaustive use of hardware resources on the server side. The cloth simulation tool, which is already integrated into a CAD software for the garment industry, runs on computers with at least dual core CPUs and the latest graphics hardware. Figure 5: The applications Virtual Try On [7] and FinMotion [23] in the mobile web browser client visualized as remote applications. The cloth simulation application was slightly adapted to enhance the functionality while the scatter plot application is captured as a complete application window. 648 All three applications are connected to our remote visualization system by integrating the render server’s application interface. On the client side, the same mobile client with only small modifications is used for all applications. As the mobile client is written with JME it can be used on a mobile phone as well as in a desktop environment. For the mobile client only the graphics content of the applications was captured, for the web version either the complete application (for FinMotion) or the rendering part of the application (for the cloth simulation). All applications run on the mobile client and can be used interactively. The game client allows a landscape walkthrough and basic interactions with the character, the cloth simulation allows to chose different garment setups that are simulated in real-time on the server side and visualized on the mobile client. In FinMotion only the functionality of browsing through the financial data sets is mapped onto the mobile client for smartphones, while the complete application functionality is available in the web browser version. Again, all different applications written with different toolsets or languages are integrated into our remote visualization system with low effort all using the same render server and all using the same remote client. 5.1 Business Impact General trends in the field of mobile technologies show that bandwidth and coverage of available connection networks were continuously increasing for many years. It can also be anticipated that this trend will continue and accelerate in the coming years with technologies like WiMAX and LTE [1]. Providing a visualization technology that enables the user to remotely access data sources and applications will enable new workflow concepts independent from office locations and times. We see our technology emerging from a flat rate evolution that will provide cost-effective and high-bandwidth access to business resources. The technology itself can provide the necessary graphics functionality of a remote workplace of the future that not only depends on voice and email access but also on the remote availability of visual information. The possibility to use applications from everywhere and to remotely make informed decisions will certainly save cost and time, and will support decision making processes for a variety of businesses and work flows. 6. Conclusion and Future Work This paper introduces a system for remote visualization of graphical content. Our approach enables the integration of the technology in a variety of applications. Thus, with low additional effort application contents can be made available in mobile and web environments. This paper discusses the architecture of the system and its components, the necessary data formats and transmission techniques, and has shown several integration scenarios. Regarding future work, we plan to include a better policy management in the render server to handle interaction requests from different users for the same visualization. Currently, the most recent interaction request is executed. Furthermore, the command set used for interaction between the mobile client and the server application is pre-defined. In the future, we will develop an interaction system that allows the definition of generic commands that will be interpreted later in the application that is connected to the render server on a mobile client. Another planned enhancement is the support for DirectX applications. DirectX provides options for widget capturing that can extend the existing interface and improve the overall performance of the capturing algorithms. Furthermore, a client-side DirectX implementation could improve the performance especially for the web clients. Finally, there are ways to improve the transmission of the image data by splitting the images into parts that are frequently updated and parts that are updated very rarely. 649 Those rarely updated parts of the overall image can be transmitted on demand. Parts of the application that are continuously updated have to be transmitted permanently. Acknowledgment We thank the Heinz-Nixdorf-Stiftung in Paderborn, Germany for funding the research project TRAVO, which formed the basis of this technology. 7. References [1] 3GPP LONG TERM EVOLUTION. http://en.wikipedia.org/wiki/3GPP_Long_Term_Evolution [2] COMMUNICATIONS MAGAZINE, IEEE. Volume 45, Issue 4, April 2007 [3] J. DIEPSTRATEN, M. GORKE, T. ERTL, Remote line rendering for mobile devices, 2004, In IEEE Computer Graphics International (CGI)’04 [4] K. ENGEL, O. SOMMER, AND T. ERTL. A Framework for Interactive Hardware Accelerated Remote 3DVisualization. In Proceedings of EG/IEEE TCVG Symposium on Visualization VisSym ’00, pages 167–177,291, May 2000. [5] JAVA PLATFORM, MICRO EDITION (JAVA ME). http://java.sun.com/javame/index.jsp [6] JAVA TECHNOLOGY. http://java.sun.com/ [7] K. KHAKZAR, R. BLUM, J. KOHLHAMMER, A. FUHRMANN, AN. MAIER, AX. MAIER. Interactive Product Visualization for an In-store Sales Support System for the Clothing Retail. In: HCI International 2007. Proceedings and Posters [DVD-ROM]: With 8 further Associated Conferences. Berlin, Heidelberg, New York : Springer Verlag, 2007, LNCS 4557, pp. 307-316. [8] MOVING PICTURES EXPERTS GROUP. http://www.chiariglione.org/mpeg/ [9] M. NURMINEN. M-Loma – A Mobile 3D City Map. Proceedings of the eleventh international conference on 3D web technology, 2006 [10] MICROSOFT FOUNDATION CLASSES (MFC). http://msdn.microsoft.com/enus/library/d06h2x6e(VS.80).aspx [11] Microsoft Remote Desktop Protocol (RDP). http://www.microsoft.com/technet/prodtechnol/Win2KTS/evaluate/featfunc/rdpfperf.mspx [12] OpenGL ES. http://www.khronos.org/opengles/ [13] K. PULLI, T. AARNIO, K. ROIMELA, J. VAARALA. Designing Graphics Programming Interfaces for Mobile Devices, IEEE Computer Graphics and Applications Volume 25, Nr 6, 2005 [14] K. PULLI, T. AARNIO, T. MIETTINEN , K. ROIMELA, J. VAARALA. Mobile 3D Graphics with OpenGL ES and M3G. San Francisco : Elsevier, Morgan Kaufmann, 2008. (The Morgan Kaufmann Series in Computer Graphics). - ISBN 978-0-12-373727-4 [15] QT. http://trolltech.com/products/qt/ [16] T RICHARDSON, Q STAFFORD-FRASER, K R WOOD, A HOPPER, Virtual network computing. IEEE Internet Computing 1998 [17] B.O. SCHNEIDER, I. M. MARTIN. An Adaptive Framework for 3D Graphics over Networks, Computers & Graphics, Vol. 23, No. 6, 1999. [18] SILICON GRAPHICS, Inc. OpenGL Vizserver 3.0 – Application-Transparent Remote Interactive Visualization and Collaboration, 2003. http://www.sgi.com/. [19] SOETEBIER, H. BIRTHELMER, J. SAHM. Client-Server Infrastructure for Interactive 3-D Multi-User Environments. In: Skala, Vaclav (Ed.) ; European Association for Computer Graphics (Eurographics): Journal of WSCG Volume 12 No. 3, 2004. Proceedings. Plzen : University of West Bohemia, 2004, S. 387-394. [20] SOUMYAJIT DEB, P. J. NARAYANAN. RepVis: A Remote Visualization System for Large Environments. Proceedings of the Workshop on Computer Vision, Graphics and Image Processing (WCVGIP), Feb. 2004, Gwalior, India, pp. 54--57. [21] S. STEGMAIER, M. MAGALL ´ON, AND T. ERTL. A Generic Solution for Hardware-Accelerated Remote Visualization. In Proceedings of EG/IEEE TCVG Symposium on Visualization VisSym ’02, 2002. [22] E. TELER D. LISCHINSKI, Streaming of Complex 3D Scenes for Remote Walkthroughs, Computer Graphics Forum, 2001, pp. 17-25 [23] T. TEKUSOVÁ, J. KOHLHAMMER. Applying Animation to the Visual Analysis of Financial Time-Dependent Data. IEEE International Conference on Information Visualization (IV), 11. 2007, Zurich, Switzerland, pp. 101108 [24] VIRTUAL NETWORK COMPUTING OVERVIEW. http://en.wikipedia.org/wiki/Virtual_Network_Computing 650 KLASSIFIKATION UND IMPLEMENTIERUNG VON LOCATION BASED AIRPORT SERVICES ZUR SITUIERTEN UNTERSTÜTZUNG VON PASSAGIERPROZESSEN AN FLUGHÄFEN Stefan Hausmann1 Kurzfassung Hohe Wachstumsraten im Passagierflugverkehr trotz begrenzter Flughafenkapazitäten und ein großer Verdrängungswettbewerb setzen die Betreiber von Flughäfen unter Druck. Eine Möglichkeit zur Kapazitäts- und Effizienzsteigerung besteht im Einsatz innovativer ortsbezogener Dienste zur Unterstützung von Passagierprozessen. Der vorliegende Beitrag klassifiziert ortsbezogene Dienste im Flughafenkontext, entwirft ein Unterstützungsszenario und stellt ein integriertes Informations- und Kommunikationssystem für die Implementierung solcher Location Based Airport Services vor, das in Kooperation mit dem Siemens Airport Center entwickelt und evaluiert wurde. 1. Motivation Einige Jahre nach den Ereignissen des 11. September 2001 ist der Passagierflugverkehr inzwischen wieder ein stark expandierender Markt. Im Jahr 2007 stiegen die Passagierzahlen international um 7,2% [10, S. 10], und auch für die kommenden 20 Jahre wird ein jährlicher Anstieg um durchschnittlich 4,9% prognostiziert [1, S. 6]. Ebenso wie die Passagierzahlen steigen aber auch die Sicherheits- und Umweltauflagen, denen sich die Luftfahrtbranche stellen muss [10, S. 26ff, S. 32ff]. Während Flugzeughersteller und Fluggesellschaften mit Hilfe sparsamerer Antriebstechnologien und größerer Flugzeuge die Effizienz und Kapazität des Reisens in der Luft erhöhen [6, S. 74, S. 76], ergeben sich für die Beteiligten am Boden neue Probleme: trotz rasant gestiegenem Flug- und Passagieraufkommen stehen die Betreiber kleinerer und größerer Flughäfen untereinander in einem starken Verdrängungswettbewerb um die Gunst der Passagiere und Fluggesellschaften, der sich in einer „Konzentration auf wenige kontinentale ‚Drehkreuze‘“ [3] auswirkt. Diese können ihre Infrastruktur aufgrund politischer und gesetzlicher Rahmenbedingungen aber nicht immer in ausreichendem Maße ausbauen. So operiert z. B. der Frankfurter Flughafen mit inzwischen gut 50 Mio. Passagieren pro Jahr an seiner Kapazitätsgrenze [24, S. 4] und kann diese nur noch durch Prozessoptimierung und innovativen Technologieeinsatz erhöhen. Auch kleinere Flughäfen müssen diesen Weg wählen, um sich bei sinkenden Auslastungen [24, S. 2] gegenüber dem Wettbewerb zu differenzieren. Weil grundsätzliche Änderungen in den Flughafenprozessen erst mittel- bis langfristig erreichbar sind, setzt die Branche auf innovative mobile Dienste, um die bestehenden Prozesse zu optimieren. Einer Studie der Cambridge University zufolge könnten jährlich alleine bis zu 600 Mio. $ eingespart werden [18, S. 1 Lehrstuhl Wirtschaftsinformatik II, Universität Erlangen-Nürnberg 651 41], wenn mobile Geräte mit Ortungs- und Benachrichtigungsfunktionen Verzögerungen in den Passagierabfertigungsprozessen reduzieren würden [15, S. 5]. Der gestiegene Innovationsdruck in der Branche lässt sich bereits heute an einzelnen Lösungen erkennen: So wurde in den letzten Jahren die Selbstbedienungsfähigkeit der Buchungs- und Check-in-Prozesse wesentlich erhöht, und auf immer mehr Flugrouten setzen sich papierlose Ticketing-Verfahren durch [16]. Ein Trend ist dabei die mobile Nutzung: Bis Ende 2010 möchten 82% der Fluggesellschaften mobile Benachrichtigungsdienste einsetzen, und immerhin noch 67% planen die Unterstützung mobiler Check-in-Dienste [16]. Dabei lassen sich noch weitaus größere Nutzeneffekte realisieren, wenn der aktuelle Standort des Nutzers berücksichtigt wird. Das mobile Endgerät des Passagiers wird dann zum zentralen Bestandteil sogenannter Location Based Airport Services (LBAS), also standortbezogener Dienste an Flughäfen, die „unter Zuhilfenahme von positions-, zeit- und personenabhängigen Daten“ [23] nicht nur Kommunikationsfunktionen unterstützen, sondern die Lokalisierung des Passagiers in allen ihn betreffenden Prozessen erlauben und die dabei gewonnenen Ortungsdaten zur situierten Prozessunterstützung einsetzen. Der folgende Beitrag nennt und klassifiziert erstmalig mögliche LBAS anhand verschiedener Kriterien und erörtert anhand eines Szenarios konkrete Unterstützungsmöglichkeiten von LBAS in Bezug auf Passagierprozesse. Darüber hinaus wird ein integriertes System zur Implementierung von LBAS vorgestellt, welches in Kooperation mit dem Siemens Airport Center [14], einem Forschungs- und Demonstrationszentrum für innovative Flughafenlösungen von Siemens, entstanden ist. 2. Location Based Airport Services Im Folgenden werden prozessunterstützende LBAS benannt und klassifiziert. Der Betrachtung liegt ein in Zusammenarbeit mit dem Siemens Airport Center erstelltes Prozesshaus der im Flughafenumfeld relevanten Prozesse zugrunde (vgl. Abbildung 1). 1 – Airport Management Strategy, Leadership and Control 2 – Passenger Management Aviation Processes 2.1 Passenger Processes Non-Aviation Processes 2.2 Baggage Handling 2.3 Travelling 2.4 Hotel & Catering 2.5 Shopping & Added Services 3.1 Facility Management 3.2 Ground Handling 3.3 Airfield Management 3.4 Airline Handling 3.5 Aircraft Handling 3.6 Exception Processes Customer Customer 2.6 Exception Processes 3 – Allocation Management 4 – Cargo Management 4.1 Cargo Delivery 4.2 Cargo Handling 4.3 Cargo Collection 4.4 Exception Processes 5 – Supportprocesses 5.1 Energy 5.2 Communication / IT 5.3 Financial 5.4 Personnel 5.5 Marketing / PR 5.6 Environment 5.7 Maintenance Abbildung 1 - Flughafen-Prozesshaus (Quelle: [8, S. 15]) In diesem zeigen sich vielfältige Anknüpfungspunkte für eine Unterstützung durch LBAS. Viele Prozesse des Allocation- und des Cargo-Managements qualifizieren sich beispielsweise für das Tracking & Tracing von Waren, Personal und Arbeitsmitteln. Im vorliegenden Beitrag liegt der Fokus aber auf dem Passenger Management und dort besonders auf den Passagierprozessen, die den Passagier als externen Faktor in die Transportdienstleistung mit einbeziehen [11, S. 113]. 652 Eine Unterstützung dieser Prozesse durch LBAS erscheint aus folgenden Gründen besonders lohnenswert: - Passagierprozesse sind komplex und unterliegen ständigen Veränderungen. - Die Prozesseffizienz hängt zu einem großen Teil vom Erfahrungshorizont der Passagiere ab. - Prozessfehler haben große Auswirkungen auf nachfolgende und parallel ablaufende Prozesse (z. B. muss das bereits verladene Gepäck nicht rechtzeitig am Gate erschienener Passagiere aufwändig gesucht und wieder ausgeladen werden) LBAS unterstützen diese Passagierprozesse: Zum einen erkennen sie entstehende Informationsbedarfe der Passagiere rechtzeitig und decken sie (z. B.: „An welchen Abfertigungsschalter muss ich mich begeben?“); zum anderen ermitteln sie den Standort des Passagiers und leisten dann situierte Prozessunterstützung (z. B.: „Wo befinde ich mich und wie komme ich zu meinem Gate?“). 2.1. Klassifikation nach Anwendungsbereich Die Einordnung von LBAS in verschiedene Anwendungsbereiche ist das wichtigste Klassifizierungskriterium und fand zweistufig statt. Zunächst wurden in Anlehnung an [17] vier Servicekategorien (Content, Locating, Support und Future Services) definiert und anschließend weiter in Anwendungsbereiche verfeinert (vgl. Abbildung 2). Diesen wurden dann konkrete LBAS zugeordnet. Support Services Content Services Pull Entertainment Mobile Games Matchmaking Buddy Finder Communication Communities Instant Messaging Information Infotainment Mobile Yellow Pages Travel Planer Travel & Tourist Guides Wiki Management Customer Relationship Management Facility Management Fleet Management Marketing Security Yield Management Emergency Automotive Assistance Emergency Call Push Commerce Advertisement Couponing Offers Shopping Guides Notification Events Flight Specific Notifications General Alerts / Notifications Theft Alerts Ambient Intelligence Access Control Environmental Customization Locating Services Self Others Navigation Car Park Guidance Directions Indoor Routing Traffic Management Billing Location Sensitive Billing Route Tolling Usage Sensitive Billing Tracking People Tracking Vehicle Tracking Resource Tracking Future Services Augmented Reality Abbildung 2 – LBAS-Klassifikation nach Anwendungsbereich Schwerpunkt der Content Services ist die Übertragung von (ortsbezogenen) Inhalten an mobile Endgeräte. Benachrichtigungen oder multimediale Informationen werden entweder beim Eintreten bestimmter Ereignisse (z. B. Betreten von Zonen, Flugplanänderungen) übertragen (Push), oder der Passagier ruft selbst Inhalte (z. B. Verzeichnisse, Informationsseiten) ab (Pull). Daneben zählen auch Werbedienste, Unterhaltungs- sowie Kommunikationsanwendungen zu dieser Kategorie. Locating Services erlauben dem Nutzer, sich selbst mit Hilfe seines mobilen Endgeräts zu orten und zu bestimmten Zielpunkten zu navigieren, außerdem ermöglichen sie die Personen- und Objektortung durch Tracking der mobilen Endgeräte aus der Ferne. Support Services kombinieren Ortungsund Kommunikationsfunktionen zu Mehrwertdiensten mit Unterstützungscharakter. Unter anderem können so LBAS in den Bereichen Sicherheit, Notfalldienste, ortsbezogene Abrechnung sowie Managementfunktionen realisiert werden. Future Services repräsentieren zukünftige ortsbezogene Dienste, die sich neuartiger Benutzerschnittstellen bedienen werden. Denkbar ist hier beispielswei- 653 se eine Form von Augmented Reality [20], die reale Sinneswahrnehmungen durch ortsbezogene Zusatzinformationen überlagert. 2.2. Klassifikation nach unterstützten Prozessen In einem nächsten Schritt wurden die LBAS-Anwendungsbereiche den bereits vorgestellten Flughafenprozessen (vgl. Abbildung 1) zugeordnet. Ein Großteil der möglichen LBAS lässt sich dabei den Prozessen des Passenger Management zuordnen. Beispielsweise können die zentralen Passagierprozesse durch LBAS zur Information, Benachrichtigung und Navigation des Passagiers unterstützt werden. Wie eine Gestaltung dieser Prozesse mit LBAS-Unterstützung aussieht, wird im Abschnitt 3 konkretisiert. LBAS mit Unterhaltungs- und Werbeinhalten eignen sich hingegen eher für Non-Aviation-Prozesse. 2.3. Klassifikation nach beteiligten Akteuren Im Rahmen des Forschungsprojekts wurden die einzelnen LBAS-Anwendungsbereiche den am Flughafen aktiven Akteuren zugeordnet. Aus dem Prozesshaus in Abbildung 1 sowie der detaillierten Prozessanalyse in [8] können folgende Akteure des Flughafenbetriebs identifiziert werden: Passagiere2, Flughafenbetreiber, Fluggesellschaften, externe Dienstleister sowie der am Flughafen ansässige Einzelhandel. In Bezug auf LBAS nehmen diese Akteure eine oder mehrere der folgenden Rollen ein: - Servicebetreiber stellen die technische Infrastruktur für den Betrieb von LBAS bereit. - Serviceanbieter bieten LBAS mit eigenen Inhalten an. - Servicekonsumenten nutzen die angebotenen LBAS. Der Flughafenbetreiber verfügt flughafenweit über eine eigene IT-Infrastruktur und kann daher als einziger Akteur die für LBAS nötige Technologie betreiben. Als Serviceanbieter stellt er selbst LBAS mit flughafenspezifischen Inhalten zur Verfügung und ist als Servicekonsument daran interessiert, aggregierte Informationen (z. B. Prozessdurchlaufzeiten, Passagierlaufwege) zu erhalten, um seine Infrastruktur zu optimieren. Die Fluggesellschaften streben eine möglichst kurze Aufenthaltszeit ihrer Flugzeuge am Boden an [4, S. 5] und sind deswegen darauf angewiesen, dass Informationsbedarfe der Passagiere möglichst schnell erfüllt und somit Verzögerungen minimiert werden; hierzu bieten sie LBAS mit flugspezifischen Inhalten an. Als Servicekonsumenten erhalten sie Informationen über verspätete Passagiere und können mit diesen kommunizieren. Externe Dienstleister übernehmen an Flughäfen u. a. die logistisch aufwändige Gepäckabwicklung [12] und nutzen hierzu als Servicekonsumenten LBAS, um Gepäckstücke oder die zugehörigen Passagiere im Flughafen zu orten, falls es zu Ausnahmen in den Passagier-/Gepäckprozessen kommt. Ziel des am Flughafen ansässigen Einzelhandels ist es, den Umsatz mit Waren oder Dienstleistungen zu maximieren. Hierzu können die Geschäfte als Serviceanbieter Informationen über ihr Angebot unterbreiten sowie LBAS etwa zur Kundenbindung oder für ortsbezogene Abrechnungen einsetzen. Der Passagier als Servicekonsument schließlich erhält auf ihn zugeschnittene Informationen und durchläuft die Passagierprozesse mit Hilfe von LBAS schneller und zielgerichteter. 2.4. Klassifikation nach sonstigen Kriterien LBAS wurden im Rahmen des Forschungsprojekts nach vielen weiteren Kriterien klassifiziert, beispielsweise nach Einführungs- und Betriebskosten, Erlöspotenzialen, möglichen Abrechnungsmodellen (keine Abrechnung, Werbefinanzierung, nutzungsbasierte Abrechnung, Subventionierung), vorausgesetzten Datenquellen, Alleinstellungsmerkmalen oder ihrem Innovationsgrad. Zusammen mit den ermittelten Prozessen und Akteuren ergaben sich dabei für alle möglichen LBAS detaillier2 Auch andere Flughafenbesucher gehören zur Zielgruppe von LBAS, werden im Folgenden aber nicht mehr gesondert erwähnt 654 te Datenblätter, die als Entscheidungsgrundlage für die Implementierung bestimmter LBAS sowie des LBAS-Systems selbst dienten. 2.5. Nutzen Neben den Klassifizierungskriterien sind für die Umsetzung von LBAS in der Flughafenpraxis insbesondere die entstehenden Nutzeneffekte relevant. Neben Kosteneinsparungen und effizienterer Prozessabwicklung [15, S. 14] ergeben sich für die Beteiligten unter anderem die in Tabelle 1 genannten Vorteile. Akteur Flughafenbetreiber Fluggesellschaften Externe Dienstleister Einzelhandel Passagiere Tabelle 1 - Nutzeneffekte von LBAS Nutzen - Engere Kundenbindung - Neue Erlöspotenziale, insbesondere bei Non-Aviation-Prozessen - Differenzierung im Wettbewerb um Passagiere und Fluggesellschaften - Planungshilfe durch Analyse von historischen Ortungsdaten - Höhere Kundenzufriedenheit - Optimierung der Abfertigung, kürzere Turn-Around-Zeiten - Optimierung der Abfertigung - Verbesserung der Personal-, Gepäck- und Arbeitsmateriallogistik - Engere Kundenbindung, neue Marketingformen - Verbesserte Marktforschung - Kürzere, unkomplizierte Prozessdurchläufe - Verbesserte Orientierung sowie erhöhtes Sicherheitsgefühl 2.6. Kosten Auch die bei einer möglichen Umsetzung der LBAS in der Praxis anfallenden Kosten wurden detaillierter betrachtet. Beispielhaft zu nennen sind hier Softwarelizenzkosten, z. B. für das verwendete WLAN-Ortungssystem (vgl. Abschnitt 4.4), Entwicklungs- und Einrichtungskosten sowie Hardware- und Wartungskosten. Diese würden in der Praxis größtenteils auf die Serviceanbieter umgelegt, die daneben auch noch die Aufwendungen für die Erstellung und Pflege der LBAS-Inhalte sowie für die Implementierung von Schnittstellen zu Drittsystemen tragen müssten. Im Gegenzug können Sie mit innovativen LBAS neue Erlösquellen erschließen, beispielsweise über kostenpflichtige ortsbasierte Informations- und Unterhaltungsdienste sowie kontextabhängige Werbemöglichkeiten. Neben den Kosten können mit der Einführung von LBAS auch weitere Nachteile einhergehen, auf die im Abschnitt 5 näher eingegangen wird. 3. Szenario einer Passagierprozessunterstützung durch LBAS Abbildung 3 zeigt den typischen Passagierprozessablauf (Passenger Processes) als hauptsächlichen Bestandteil des Prozessbereichs Passenger Management [8, S. 16]. Grundlage sind die von der International Air Transport Association (IATA) definierten Prozessabläufe [9]. Eine Prozessunterstützung durch LBAS verfolgt hier das Ziel, die Prozesseinhaltung unter Berücksichtigung von Zeitrestriktionen zu gewährleisten, zum anderen soll der Passagier bei weiteren Prozessen (NonAviation Processes) [8, S. 17], also z. B. bei Unterhaltungs-, Konsum- und Gastronomieprozessen unterstützt werden. Drittens müssen LBAS auch die Behandlung von Ausnahmeprozessen (Exception Processes) [8, S.18] erleichtern. Dies betrifft beispielsweise Flugverspätungen, Gatewechsel oder Gepäckverluste. Abbildung 3 – Passagierprozesse (Quelle: [8, S. 16]) Als Anforderungskatalog für das zu entwickelnde LBAS-System wurde das folgende Szenario definiert: Beim Erreichen des Flughafengeländes (Ground Access) bekommt der Passagier die Mög- 655 lichkeit, sich mit seinem mobilen Gerät an das System anzumelden. Dies kann entweder anonym oder mit Bezug auf ein Kundenkonto geschehen. Im letzteren Fall verfügt das System dann über einen Kontext aus Benutzerdaten und –präferenzen zur Individualisierung der später angebotenen LBAS. Zum späteren Wiederauffinden speichert das System die Position des KFZ des Passagiers und gibt ihm dann eine erste Orientierung über das Flughafengelände. Am Ende jedes Teilprozesses erhält der Benutzer eine Übersicht über die möglichen Folgeschritte und ggf. über mögliche Zeitprobleme. Den Check-in kann der Nutzer direkt über sein mobiles Endgerät vornehmen. Er wird dann zum Gepäckschalter navigiert, falls er Reisegepäck aufgeben möchte. Für den Fall, dass er einen klassischen Check-in-Schalter aufsuchen möchte, weist ihm das Gerät den Weg dorthin. Nach dem Check-in verfügt das System zusätzlich über einen Kontext aus Buchungs- und aktuellen Flugdaten und kann den Passagier informieren, falls es Neuigkeiten zu seinem Flug gibt. Im Teilprozess Security-Run erhält der Nutzer aktuelle Informationen über Standort, Auslastung und optimalen Zeitpunkt der Sicherheitskontrollen. Er wird außerdem benachrichtigt, falls es Probleme mit seinem Gepäck im parallel ablaufenden Gepäckabfertigungsprozess gibt. Nach dem Security-Run betritt der Passagier den Transitbereich und wird bei optionalen Nebenprozessen durch verschiedene LBAS unterstützt. Beispielsweise ermöglicht ein elektronisches Konto, Einkaufs- und Verpflegungseinrichtungen bargeldlos zu benutzen. Außerdem kann die Nutzung spezieller Bereiche (z. B. VIP-Lounge) je nach Buchungsklasse, Nutzungsdauer und Aufenthaltsort automatisch abgerechnet werden. Mit Hilfe seines mobilen Endgeräts kann der Passagier verschiedene Informationsdienste abonnieren, indem er den 2D-Barcode [21] eines physischen Informationsträgers (Plakat, Display o.ä.) erfasst. Er bekommt ab diesem Zeitpunkt die damit verbundenen Informationen mobil und aktuell angezeigt. Während des gesamten Prozessablaufs wird der Passagier über mögliche Ausnahmeprozesse informiert. Verspätet sich sein Flug, erhält er Informationen und ggf. einen Voucher zum Bezug von Verpflegung auf sein Endgerät. Fällt ein Flug gänzlich aus, erhält er alternative Flüge und wird ggf. erneut zum Check-in navigiert. Ändert sich das Gate, wird er rechtzeitig informiert und erhält Navigationshilfe zum neuen Gate. Auch der Prozess des Boarding kann durch LBAS unterstützt werden. Zum einen können LBAS dazu beitragen, dass alle Passagiere pünktlich zum Boardingzeitpunkt am Gate sind, zum anderen können deren mobile Endgeräte automatisch vor dem Betreten des Flugzeugs deaktiviert werden. Nach dem Flug erfolgt wieder eine Anmeldung an das LBAS-System des Zielflughafens. Anschließend wird der Nutzer im Rahmen des Baggage Reclaim zum richtigen Gepäckband navigiert und erhält Informationen über den Status seines Gepäcks sowie eventuell aufgetretene Probleme. Beim Verlassen des Flughafengebäudes (Ground Departure) werden dem Passagier Weiterreisemöglichkeiten sowie Buchungsfunktionen (Taxiruf, Bezug von ÖPNV-Tickets, Hotelbuchung) angeboten. Mit Hilfe der Navigationsfunktion kann er sich auch zu seinem geparkten KFZ leiten lassen. Parallel zum Ablauf des Passagierprozess erhalten auch die anderen Akteure Unterstützung durch das System. So kann z. B. Personal zu Störungsquellen navigiert werden, der Flughafenbetreiber sowie externe Dienstleister erhalten Laufweganalysen sowie aktuelle Auslastungsübersichten, um ihre Kapazitäten anpassen zu können, und die Fluggesellschaften erhalten Ortungs- und Kommunikationsmöglichkeiten für Passagiere, die den Flugabfertigungsprozess verzögern. 4. Integriertes Ortungs- und Kommunikationssystem für LBAS 4.1. Rahmenbedingungen Um einen hohen Akzeptanz- und damit Nutzungsgrad zu erzielen, muss ein LBAS-System möglichst viele der heterogenen Passagier-Endgeräte unterstützen. Weltweit verfügen bereits über 90% aller Fluggäste über ein Mobiltelefon [15, S. 3]; nahezu jedes neu verkaufte verfügt dabei neben GSM über mindestens eine Nahfunktechnologie wie z. B. Bluetooth [2]. Im geschäftlichen Bereich dominieren bei den Passagieren daneben auch Notebooks, die üblicherweise eher mit WLAN ausgestattet sind. 656 Darüber hinaus sollte sich ein LBAS-System auch in eine ggf. bestehende WLAN-Infrastruktur des Flughafens integrieren lassen, also diese zur Kommunikation und Ortung nutzen können, um die Anfangsinvestitionen in die für LBAS erforderliche Hardware-Infrastruktur zu minimieren. 4.2. Ortungs- und Kommunikationstechnologien Für die Lokalisierung von Endgeräten bedient sich das entwickelte LBAS-System eines innovativen, hybriden Ortungskonzepts: zum einen wird eine flughafenweite, relativ präzise Ortung durch Auswertung der Signalstärken von WLAN-Accesspoints durch die mobilen Endgeräte selbst durchgeführt (Selbstortung), zum anderen kann der Aufenthaltsort von Bluetooth-fähigen Endgeräten zellbasiert über verteilt installierte Bluetooth-Accesspoints registriert werden (Fremdortung). Für die WLAN-Ortung wird auf eine Realtime-Locating-System-(RTLS)-Lösung der Firma Ekahau zurückgegriffen [7]. Diese stellte sich in einem Vergleich von fünf kommerziellen und quelloffenen Systemen zur WLAN-Ortung zwar als kostenintensive, dafür aber als beste Lösung hinsichtlich der Kriterien Ortungsgenauigkeit, Prozessor- und Netzwerkauslastung sowie Einrichtungsaufwand herausgestellt. Sie setzt das sog. Radio-Mapping-Verfahren um, bei dem in einem Kalibrierungsdurchlauf zunächst die charakteristische Signalstärkenverteilung (Fingerprint) aller empfangenen WLAN-Accesspoints an jedem Punkt des Areals erfasst wird. Im Produktivbetrieb werden dann die vom WLAN-Gerät gemessenen Signalstärken ständig mit den in einer Datenbank hinterlegten Fingerprints nach dem Weighted-k-Nearest-Neighbours-Verfahren verglichen und die zutreffendste Ortsangabe ermittelt [5]. Für die Bluetooth-Ortung wurde eine eigene Lösung entwickelt, bei der Bluetooth-Accesspoints über einen sog. Inquiry-Vorgang alle Bluetooth-Endgeräte in ihrem Empfangsbereich ermitteln. Zusätzlich werden durch einen kurzen Verbindungsaufbau mit den mobilen Endgeräten deren Signalstärken ausgewertet, was die erzielbare Genauigkeit weiter erhöht. Für die drahtlose Kommunikation mit den Endgeräten ergänzen sich beide Technologien optimal. Bluetooth ermöglicht durch vordefinierte Endgeräteprofile das Versenden von Nachrichten an Geräte ohne spezielle Client-Software, WLAN erlaubt klassische TCP/IP-Kommunikation, benötigt dafür jedoch entsprechende Clientprogramme oder Webbrowser auf den Endgeräten. Tabelle 2 vergleicht WLAN- und Bluetooth hinsichtlich ihrer Eignung für Ortung und Kommunikation. Es zeigt sich, dass beide Technologien einander komplementär ergänzen und sich somit für einen hybriden Einsatz empfehlen. Außerdem erhöht sich somit der Anteil an Endgeräten, der über mindestens eine der beiden Technologien in das LBAS-System eingebunden werden kann. Tabelle 2 – Vor- und Nachteile von WLAN und Bluetooth hinsichtlich Ortung und Kommunikation Kriterium WLAN Bluetooth Ortungsverfahren freie Ortung über Sigzellbasierte Ortung nalstärken Netzabdeckung flächendeckend einzelne Zellen Verbindungsabbruch bei AP-Wechsel nein ja Ortungsgenauigkeit 1 – 10 Meter (flächen2 – 10 Meter je nach Bluetooth-Klasse deckend) (in einer Zelle) Vorherige Kalibrierung des Areals erforderlich ja nein Clientsoftware zur Ortung des mobilen Endgeja nein räts erforderlich 4.3. Prozessunterstützung Für die Implementierung des LBAS-Unterstützungsszenarios ist zunächst die Definition logischer Zonen innerhalb des Flughafenareals (Check-in, Security-Kontrolle, VIP-Lounge, Gates usw.) erforderlich. Während diese mit den durch die Bluetooth-Accesspoints aufgespannten Empfangsbereichen identisch sind, müssen die Zonen bei der WLAN-Ortung zunächst auf der kalibrierten Signalstärkenkarte des Flughafenareals definiert werden. 657 Um die spätere Entwicklung der konkreten LBAS zu erleichtern, wurden verschiedene generische Unterstützungsmodule implementiert (vgl. Tabelle 3), die später von den einzelnen LBAS in einer bestimmten zeitlichen Reihenfolge oder in Abhängigkeit des Aufenthaltsorts des Nutzers aufgerufen werden. Der aktuelle Prozessschritt jedes Passagiers wird dabei über die Zuordnung seiner Position zu einer logischen Zone ermittelt und zur Gestaltung der Dialogführung herangezogen. Unterstützungsmodul Benutzerkonto Nachricht/Dialog Information Rechnung Navigation Tabelle 3 – Generische LBAS-Unterstützungsmodule Funktion An- und Abmelden an das System, Stammdatenverwaltung, Einstellen persönlicher Präferenzen zu Benachrichtigungen und Privatsphäre Übermittlung und Anzeigen von Benachrichtigungen, Dialogführung, Auswertung von Benutzereingaben Anzeige umfangreicher, auch grafischer Informationen (z. B. Fahrpläne, Lagepläne) benutzerspezifisches Zahlungskonto, Zahlungsmittel, Gutschriften- und Rechnungsverwaltung Kartenansicht mit aktuellem Aufenthalts- und Zielort sowie zusätzlichen Informationen (z. B. Points of Interest (POI), Standort von Mitarbeitern) 4.4. System-Architektur Abbildung 4 illustriert die Softwarearchitektur des implementierten LBAS-Systems. Als Funkschnittstelle zu den mobilen Endgeräten kommen kostengünstige Embedded-Router zum Einsatz, die Standard-WLAN-Accesspoint-Funktionalität besitzen und über Firmware- und HardwareErgänzungen um Bluetooth-Accesspoint-Funktionalität erweitert wurden. Auf diesen drahtlosen Zugangspunkten bildet die Accesspoints-Komponente den wichtigsten Bestandteil der Kommunikations- und Ortungsfunktionalität. Dabei handelt es sich um eine modifizierte Firmware auf Basis des quelloffenen Linux-Router-Betriebssystems OpenWRT [13], die drahtlose Endgeräte per WLAN authentifiziert sowie in ein TCP/IP-Netzwerk einbindet und die um zwei zusätzliche Funktionen erweitert wurde: zum einen versendet sie LBAS-Inhalte an BluetoothEndgeräte via OBEX-Protokoll [22], zum anderen scannt sie laufend die Bluetooth-Device-IDs aller in der Nähe befindlichen Bluetooth-Geräte. Diese schickt sie zusammen mit den WLANSignalstärkeinformationen, die auf den WLAN-Endgeräten über eine spezielle Client-Software ermittelt werden, an die Positioning Engine, die alle Ortungsdaten aggregiert, für die Nutzung durch die LBAS aufbereitet und mit Zeitstempeln archiviert. Die Berechnung der WLANOrtungsdaten erfolgt dabei durch Einbindung der Ekahau-RTLS-Engine per Webservice-Aufruf. Configuration Client Mobile Client Browser Application Windows Mobile Device e.g. J2ME Client Integration of different positioning systems & calculation of client locations Positioning Core (Historical database of client locations) Sockets Web-Services Positioning Engine Positioning Engine HTTP Web-Services Web Services Application Software Mapping of loc. based and user specific data / Frontend of Notification- & LBAS-System Conten Management Core (Database of user profiles & service offering) WLAN-Wrapper Ekahau Sockets Mobile Devices Radius Access Points Radius LAN-Access Authentification Bluetooth-Wrapper LAN Infrastructure Content Engine Interface LAN-Access (Intranet / Internet) Bluetooth (BT) Browser-based (e.g. J2ME) (BT) Wireless LAN (WLAN) Windows Mobile (WLAN / BT) Abbildung 4 – Softwarearchitektur des LBAS-Systems Auf einem separaten Server läuft die Content Engine. Diese führt die eigentlichen LBAS aus und stellt ihnen neben den erhaltenen Ortungsdaten auch weitere Inhalte von externen Systemen (Bu658 chungssysteme, Flight-Information-Systeme usw.) sowie eine Benutzerkontoverwaltung zur Verfügung. Die von den LBAS erstellten Inhalte werden dann entweder per WLAN oder Bluetooth an die Endgeräte distribuiert. Exemplarisch wurde für Windows-Mobile-basierte Endgeräte ein eigener Mobile Client entwickelt, der die Inhalte gerätespezifisch aufbereitet, präsentiert und gleichzeitig den Windows-MobileClient der Ekahau-Lösung anbindet. Mobile Geräte mit anderen Betriebssystemen können über einen Standard-Internetbrowser auf die LBAS-Inhalte zugreifen. Dabei wird die gesamte Dialogführung mit dem Passagier komfortabel und optisch ansprechend per AJAX [19] abgewickelt. Ein Configuration Client erlaubt die Verwaltung der Accesspoints und der angemeldeten Endgeräte sowie die Auswertung der archivierten Ortungsdaten, um den Servicekonsumenten z. B. Laufwege der Nutzer sowie Auslastungsübersichten der einzelnen Zonen zur Verfügung zu stellen. 5. Fazit und Ausblick Das LBAS-System wurde sowohl in einer Labor-Umgebung als auch beim Kooperationspartner Siemens Airport Center in einer realistisch nachgestellten Flughafenumgebung getestet. Der dabei nötige Installationsaufwand konnte durch das Verwenden einer Standard-WLAN-Infrastruktur begrenzt werden. In einem Flughafen-Praxisszenario müssen eventuell vorhandene WLANAccesspoints gegen Geräte mit Unterstützung für Firmware-Erweiterungen sowie Bluetooth ausgetauscht werden sowie ggf. zusätzliche Accesspoints installiert werden, um die für eine WLANOrtung nötige Mindestdichte an Accesspoints zu gewährleisten. Im Prototypenbetrieb konnten nach einer einmaligen Kalibrierung des Areals mit Hilfe der eingebundenen WLAN-Ortungssoftware und der Definition logischer Zonen die einzelnen LBAS für das System implementiert werden. Durch die Wiederverwendbarkeit der generischen Unterstützungsmodule beschränkte sich der Entwicklungsaufwand dabei hauptsächlich auf die Erstellung der Inhalte sowie die Gestaltung der Dialogführung und die Verknüpfung mit den logischen Zonen. Die erzielte Ortungsgenauigkeit hing bei WLAN stark von der Kalibrierungsqualität und natürlich von der verwendeten Ekahau-Software ab. Bei günstig positionierten WLAN-Accesspoints konnte jedoch eine durchschnittliche Positionierungsgenauigkeit von 2 – 5 Metern in der nachgestellten Flughafenumgebung des Siemens Airport Centers erzielt werden. Die zellenbasierte BluetoothOrtung funktionierte, sofern sich die von den Accesspoints aufgespannten BluetoothEmpfangsbereiche nicht überschnitten, einwandfrei und ermöglichte eine eindeutige Zonenzuordnung der Endgeräte. Ein Problem stellte hier allerdings die zeitliche Verzögerung dar, die durch den langsamen Inquiry-Vorgang auf den Bluetooth-Accesspoints verursacht wird. Im Mittel benötigte es gut 10 Sekunden, bis das Betreten einer Bluetooth-Zelle vom System erkannt wurde. Über die technischen Problemstellungen hinaus ergeben sich durch den Einsatz von LBASSystemen an Flughäfen neue Herausforderungen. Einerseits kann die Lokalisierbarkeit von Endgeräten bei Passagieren den Eindruck einer Überwachung auslösen. Diesem Eindruck muss mit einer transparenten Kommunikationspolitik entgegengewirkt werden, die klarmacht, welche technischen Voraussetzungen für die Ortung bestehen und wie diese durch den Passagier beeinflusst werden können. Anderseits darf die Verknüpfung von Ortungs- und Personendaten nur auf freiwilliger Basis geschehen. Widerspricht ein Passagier dieser Verknüpfung, erfährt er dann zwar noch ortsbezogene, aber eben keine personen- oder flugspezifische Prozessunterstützung mehr. Zusätzlich muss darauf geachtet werden, dass die Passagiere selbst Menge und Art der dargebotenen Informationen bestimmen können, um nicht gestört oder überfordert zu werden. Das vorliegende System implementiert selbst schon einige wichtige Prozessunterstützungsfunktionen und erlaubt die einfache Entwicklung weiterer LBAS auf einer Vielzahl von Endgeräten, die allerdings eine der Drahtlostechnologien WLAN oder Bluetooth unterstützen müssen. Es muss nun aus der Demonstrationsumgebung des Siemens Airport Centers heraus in eine echte Flughafenumgebung portiert werden, um im Rahmen eines detaillierten Business Case die genauen Kosten und Ertragsmöglichkeiten sowie die Ausgestaltung der einzelnen LBAS zu evaluieren. Nicht zuletzt hat 659 das System in der Praxis zu beweisen, dass es die erhoffte Effizienzsteigerung in den Flughafenprozessen bringt und von ausreichend vielen Passagieren akzeptiert wird. 6. Literatur [1] Airbus (2007): Global Market Forecast 2007 – 2026. http://www.airbus.com/store/mm_repository/pdf/att00011423/media_object_file_GMF_2007.pdf, Abruf am 2008-07-28 [2] Bluetooth Special Interest Group (2005): Bluetooth Shipments Climb to Five Million Per Week. http://www.bluetooth.com/Bluetooth/Press/SIG/Bluetooth_Shipments_Climb_to_Five_Million_Per_Week.htm, Abruf am 2008-0728 [3] Boston Consulting Group, The (2004): Flughäfen vor Verdrängungswettbewerb. http://www.bcg.com/publications/files/BCG_Global_Airports_21._April_2004.pdf, Abruf am 2008-07-28 [4] Bowen, Brent D.; Headley, Dean E. (2005): Airline Quality Rating 2005. Forschungsbericht, University of Nebraska, Wichita State University, Omaha [5] Deasy, T. P.; Scanlon, W. G. (2007): Simulation or Measurement: The Effect of Radio Map Creation on Indoor WLAN-Based Localisation Accuracy, in: Springer Verlag: Wireless Personal Communications Number 4, S. 563-573 [6] EADS (2004): Die A380 erwacht zum Leben, in: EADS: Steigflug - Das Unternehmen im Jahr 2004. http://www.reports.eads.net/2004/ar_2004/de/downloads/Book1/das_unternehmen_im_jahr_2004.pdf, Abruf am 2008-07-28 [7] Ekahau: Ekahau RTLS. http://www.ekahau.com/?id=4200, Abruf am 2008-07-28 [8] Ferstl, J. (2007): Integration von fluggastrelevanten Prozessen in ein zentrales Airport Operation Concept – Analyse, Bewertung und Implikationen. Diplomarbeit, Universität Erlangen-Nürnberg [9] International Air Transport Association (2005): SPT – Ideal Process Flow V1.0. 01.12.2005. http://www.iata.org/NR/rdonlyres/3A7B777C-3508-4B0E-86AB-EC39D834475D/0/IPF_V10_Nov2005.pdf, Abruf am 2008-07-28 [10] International Air Transport Association (2008): Annual Report 2008. http://www.iata.org/NR/rdonlyres/84158349-7772-489286AB-836DE73E0A52/0/IATAAnnualReport2008.pdf, Abruf am 2008-07-28 [11] Mertens, P.; Bodendorf, F. (2004): Grundzüge der Wirtschaftsinformatik. Springer Verlag, Berlin/Heidelberg/New York [12] o.V. (1996): Council Directive 96/67/EC of 15 October 1996 on access to the groundhandling market at Community airports. EU Richtlinie, Ministerrat der Europäischen Union, Brüssel [13] o.V.: OpenWrt. http://openwrt.org/, Abruf am 2008-07-28 [14] Siemens AG: Siemens Airport Center. http://www.industry.siemens.com/airports/en/SAC/en/default.htm, Abruf am 2008-0728 [15] SITA (2008): How Mobile Technology Will Enhance Passenger Travel. http://www.sita.com/NR/rdonlyres/6956EFEA-EC3E4851-B3CB-F8495C35BDD3/0/PassengerMobilityNewFrontiersPaperMay08.pdf, Abruf am 2008-07-28 [16] SITA (2008): SITA research shows mobile phones have potential to save the industry $600 M on flight delays. http://www.sita.aero/News_Centre/Press_releases/Press_releases2008/SITA_research_shows_mobile_phones_have_potential_to_save_the_industry_600_M_on_flight_delays.htm, Abruf am 200807-28 [17] Steiniger, S.; Neun, M.; Edwardes, A. (2006): Foundations of Location Based Services. http://www.geo.unizh.ch/publications/cartouche/lbs_lecturenotes_steinigeretal2006.pdf, Abruf am 2008-07-28 [18] Thorne, Alan; Prodonof, Victor; McFarlane, Duncan (2008): Aircraft Turnaround In the Auto-ID Enabled Environment. AutoID Lab, University of Cambridge, United Kingdom [19] Wikipedia: Ajax (Programmierung). http://de.wikipedia.org/wiki/Ajax_%28Programmierung%29, Abruf am 2008-07-28 [20] Wikipedia: Augmented Reality. http://en.wikipedia.org/wiki/Augmented_reality, Abruf am 2008-07-28 [21] Wikipedia: DataMatrix. http://de.wikipedia.org/wiki/DataMatrix, Abruf am 2008-07-28 [22] Wikipedia: OBEX. http://de.wikipedia.org/wiki/IrOBEX, Abruf am 2008-07-28 [23] Wikipedia: Standortbezogene Dienste. http://de.wikipedia.org/wiki/Standortbezogene_Dienste, Abruf am 2008-07-28 [24] Wilken, D.; Focke, H. (2003): Zur Nutzungsintensität der Flughafenkapazitäten in Deutschland: Weiter zunehmende Konzentration oder eher gleichmäßige Verteilung der Nachfrage nach Flughafenkapazität?, in: Universität Dresden: Mobilität und Verkehrsmanagement in einer vernetzten Welt, CR-ROM, 19. Verkehrswissenschaftliche Tage Dresden 660 SEMANTISCHE INFORMATIONSSYSTEME Semantische Modellierung und ihre automatische Verarbeitung findet verstärkt Eingang in das betriebliche Informationsmanagement. In Informationssystemen ergibt sich der Mehrwert semantischer Technologien primär aus der Integration heterogener Informationen und der Steigerung der Informationsqualität. Im Wissensmanagement und in der Gestaltung und Bearbeitung wissensintensiver Prozesse unterstützen semantische Technologien die kontextspezifische Strukturierung von Wissens- und Informationsbeständen. Abfrage- und Präsentationsmechanismen werten die Semantik von Informationen und Metadaten aus und erhöhen so den Gebrauchswert vorhandener Informationen. Von zentraler Bedeutung für diesen Track ist die wirtschaftliche Nutzung semantischer Ansätze in Geschäftsanwendungen: Von der Beurteilung, von der Analyse des Aufwands für die Entwicklung und Pflege der semantischen Modelle, über die Evaluierung, welche Unternehmens- und Wissensziele durch semantische Technologien unterstützt werden, bis zum Einsatz semantischer Technologien für geschäftliche Anwendungen. Leitungsgremium: Dieter Fensel, Universität Innsbruck Knut Hinkelmann, Fachhochschule Nordwestschweiz Rudi Studer, Universität Karlsruhe (TH) & FZI Forschungszentrum Informatik (Federführender) Programmkomitee: Andreas Abecker, FZI, Karlsruhe Jürgen Angele, Ontoprise GmbH, Karlsruhe Christian Fillies, Semtation GmbH, Deutschland Barbara Re, University of Camerino Ulrich Reimer, University of Applied Sciences St. Gallen Steffen Staab, Universität Koblenz York Sure, SAP Research Rainer Telesko, Fachhochschule Nordwestschweiz Holger Wache, Fachhochschule Nordwestschweiz Robert Woitsch, BOC, Österreich A MODEL-DRIVEN APPROACH TO ENABLE ACCESS CONTROL FOR ONTOLOGIES Willy Chen, Heiner Stuckenschmidt1 Abstract Industrial applications of semantic technologies - in particular ontologies - include the integration of heterogeneous information sources and the management of information resources and services. Currently, the adoption of these technologies in large-scaled applications within enterprises is slowed down by their failure to meet some basic requirements of commercial applications. One of those is the support of sophisticated security policies for protecting the knowledge contained in ontologies and their instances from unauthorized use. In this paper, we propose a model-driven approach to enable access control for lightweight ontologies based on a role-based security model and well-known standard technologies. 1 Motivation Ontologies and Industrial Applications Semantic technologies originally developed for knowledge representation and reasoning on the web are gaining attention from industry as an adequate means for solving complex information management tasks. A constantly growing number of companies that offer professional services or tools in this area reflect this trend [4]. Typical applications of ontologies include knowledge and skill management [20] as well as web service and business process management [8]. Studies [10] and successful projects [21] emphasize the relevance of these technologies in the area of product lifecycle management (PLM), in particular in the automotive sector. Their application in largescaled industrial use cases (e.g., [2]) quickly shows that theoretical issues like expressiveness and decidability are less a limiting factor for their uptake in industry than non-functional aspects. In commercial scenarios we are particularly faced with ever changing domains that need to be reflected within a knowledge base, restricted resources for its development and maintenance, and the uncertain perspicuity and acceptance of such an information source by the actual users [11]. The Need for Access Control Another important requirement of many industrial applications is the need to protect knowledge against unauthorized access. This need is particularly evident in many potential application areas of ontologies such as the area of data and application integration. The integrated data sources often hold confidential information that should not be accessible for everybody. In some cases, such as 1 Mannheimer Zentrum für Wirtschaftsinformatik, A5, 6 68159 Mannheim 663 the deregulation of the energy markets, there are even legal constraints on the accessibility of strategic information between different parts of the same enterprise. Tailoring the integration of data sources for different target groups is too much effort in most cases. Therefore, the only sensible solution is a complete integration of information along with the implementation of a fine-grained access control mechanism that grants access to parts of the integrated model based on a suitable set of security policies. While this problem has been investigated in details for standard technologies such as relational databases, so far there are no convincing solutions for providing fine-grained access control for ontology-based knowledge in the presence of logical inference. This hinders the uptake of semantic technologies in industrial applications dealing with sensible information. Providing a solution to this problem therefore increases the usefulness and the potential impact of semantic technologies in practice. Outline and Contributions Within this paper we present a security architecture for enabling access control of ontologies within standard semantic web infrastructures without the need to modify existing reasoners. In fact, we propose the use of a security proxy, which rewrites incoming SPARQL queries so they meet prior defined access control policies. For creating and maintaining those policies together with the corresponding ontologies in an integrated manner, we present an approach based on the Modeldriven Architecture (MDA). To this aim, the paper is organized as follows. In section 2 we briefly recall previous work on a model-driven approach for managing lightweight ontologies for industrial applications and provide an example ontology. In section 3, we extend the approach with a rolebased access control model that uses the XACML standard [17] for defining policies and show how it applies to our example. In section 4, we discuss our approach for enforcing security policies by rewriting SPARQL queries posed to the knowledge model. We conclude with a brief review of related work in section 5 and a discussion of the strength and weaknesses of our approach. 2 Indutrial-Strength Ontologies In previous work [1] we have proposed a lightweight knowledge model and an associated metamodel that meets the representation requirements of typical industrial applications while still being easy to understand and implemented using existing technology. In the following, we briefly present parts of this model for which we investigate the development of a security framework. A Metamodel for Lightweight Ontologies Gasevic et al. [9] have shown the relevance of the Model-driven Architecture (MDA) for ontology development. The Object Management Group (OMG), which provides all standards related to MDA in software engineering, has recently finalized the standardization process of the Ontology Definition Metamodel (ODM, [18]) - a metamodel for OWL ontologies based on the Meta Object Facitiliy (MOF), the standard for describing such models. The participation of big players of the branch such as IBM and AT&T and a first implementation by the Eclipse foundation, the EODM project, shows the high relevance of the ODM particularly to the industry. The coverage of OWL Full however results in a fairly complex metamodel. For OWL DL and Lite the ODM could be significantly simplified, since the use of RDF constructs are restricted in these subsets. Because OWL Full is not relevant to commercial applications due to its undecidability, we focus on more practical subsets of OWL. To enable high performance reasoning even with large A-Boxes we propose the use of a subset of OWL Lite, which falls into plain Datalog. Such a subset, namely OWL Lite-, has been defined by de Bruijn et al. [5]. The relevance of such a subset has been discussed by Volz [22] and Hitzler et al. [12]. In order to enable the direct representation of data 664 from relational databases, we added the primitive data types. The resulting subset, OWL Lite-,p, has been presented in more details in [1]. Table 1 gives an overview of the included language elements and also presents some mappings to other knowledge representation languages. Figure 1 Languages Features of OWL Lite-,p To actually utilize the metamodel for implementing an application for ontology development, we build on the Eclipse Modeling Framework (EMF), a project aiming at providing Eclipse-based tools for model-driven development. Among others, we can utilize the framework to automatically generate a Java object representation of metamodels defined in the Ecore - a meta-metamodel language, which is a real subset of MOF. Figure 2 shows the Ecore metamodel for OWL Lite-,p. Figure 2 Lightweight Ontology Metamodel 665 An Example Consider a product ontology, which integrates different information about products and their parts that may exist in different departments of a car manufacturer. Clearly, some information from e.g. sales such as the purchase price of a part should not be visible for developers. Also, external staff that works on specific parts should only see data which they require for their work. For example, somebody who is working on the braking system should only be able to see brake parts and specific electronic control units such as the Anti-Lock Braking System. The example ontology is defined using the abstract OWL syntax: Class(Manufacturer partial) Class(Supplier partial Manufacturer restriction(produces allValuesFrom Part)) Class(Product partial) Class(Car partial Product) Class(Part partial Product) Class(BodyPart partial Part) Class(PrototypeBodyPart partial BodyPart) Class(Brake partial Part) Class(ElectronicControlUnit partial Part) 3 Class(AntiLockBrakingSystem partial ElectroniControlUnit) Class(TransmissionControlUnit partial ElectronicControlUnit) Class(TCU partial ElectroniControlUnit) EquivalentClasses(TCU, TransmissionControlUnit) ObjectProperty(produces domain(Manufacturer) range(Product)) ObjectProperty(contains domain(Car) range(Part)) DatatypeProperty(hasSalesPrice domain(Product) range(float)) DatatypeProperty(hasPurchasePrice domain(Product) range(float)) The Security Framework Access Control and Policy Specification Access control systems enable the regulation of access to protected resources (i.e. objects) in distributed systems by subjects such as users or system processes (cf. [6]). They can be categorized in discretionary access control (DAC), mandatory access control (MAC), and role-based access control (RBAC) models. In DAC-based systems, the permissions to access an object are defined by its owner. In MAC models, the system determines the access to objects either by utilizing access rules or lattices for assigning permissions to subjects. It thus removes the ability of the users to control access to their resources. RBAC systems finally remove the explicit use of subjects within access rules or lattices and replace them with roles, which form a logical group of a number of subjects. In fact, permissions are assigned to roles and the subjects are assigned members of a number of roles. Thus changes of single subjects do not necessarily have consequences in the actual access control policies. The Extensible Access Control Markup Language (XACML) is an OASIS standard that describes both a policy language and an access control decision request/response language (both written in XML) [17]. The policy language consists of following basic constructs: • • • • PolicySet: A PolicySet is a container for a number of Policies or other PolicySets. Policy: A policy represents a single access control policy, expressed by a set of Rules. It applies for a defined Target. Rule: A Rule consists of a Target element and has an attribute Effect, which can be either ‘permit’ or ’deny’. Target: The Target element declares a set of Subjects, Resources, and Actions for which a Rule or Policy applies. 666 Note that the actual XACML specification defines a number of additional constructs to further refine the access control policies. Altogether XACML is an extensible standard that allows enterprises to build fine-grained access control systems. Protecting Resources in Ontologies In order to apply access control mechanisms to ontologies, we need to identify the resources, which should be protected. Since the T-Box of ontologies in generally represents a shared vocabulary of a specific domain, it is not reasonable to restrict access at this level. In fact, we aim at controlling the access to instances of specific classes and properties – i.e. the A-Box, while the T-Box remains unrestricted. We thereby assume that the access to individuals of all classes and all property values are denied by default for avoiding unintended security leaks. Because of this, access to specific classes and thus corresponding individuals as well as property values have to be explicitly granted to subjects. For this purpose, we consider following basic access rule types: (1) permit access to all individuals and values respectively of a class, a datatype property, or an object property; (2) deny access to a specific individual. To refine these policies, we further provide means to (3) deny the access to individuals and values of subclasses and subproperties of prior permitted resources. As common in modern access control systems, we envision a RBAC model for simplifying the maintenance of the access control policies. Extending the Metamodel In order to enable a uniform and interdependent maintenance of the protected ontologies together with the security policies, we extend the earlier presented metamodel of lightweight ontologies by means to model access control policies. Thus, we do not need to commit to a single representation formalism for either ontologies or security policies. We initially cover a subset of the XACML specification, which provides basic features for realizing the access control mechanism for ontologies as presented above (cf. Figure 3). We thereby leave out the PolicySet element and only consider simple restrictions on ontology resources. The use of the Target construct allows grouping the Policies by Subjects, Resources, or any combination of both. If no Action, Subject, or Resource is defined for a Target, we consider that the Policy or Rule applies for all Actions, Subjects, and Resources respectively. Figure 3 Access Control Policies Metamodel Security Architecture We can utilize existing reasoners for OWL Lite to infer implicit knowledge and query an ontology. This is typically done by sending a SPARQL select query to the appropriate endpoint of the used reasoner. In order to ensure confidentiality in such an infrastructure, we enforce the use of a security proxy, which intercepts all communication to the reasoner. Similar to web proxy systems, 667 we require a user authentication prior to its first use. The proxy acts as the Policy Enforcement Point (PEP) within the XACML architecture and constructs an authorization decision query to the Policy Decision Point (PDP). The decision of the PDP is based on the access control policies provided by the Policy Retrieval Point (PRP) and the information provided by the Policy Information Point (PIP) about for example the role of a user. The PEP finally enforces the decision of the PDP either by completely denying the query, by rewriting the query so it meets the security policies, or by directly redirecting the query to the reasoner. Details of this part of the process are discussed in section 4 below. The resulting security architecture ensures that enforcement of access control policies in a loosely coupled way by utilizing existing frameworks and tools without the need to modify existing reasoners, so they can directly support such a task. Within this work we assume that the security proxy unifies the different components (PxP) defined by the XACML architecture so there is no need to exchange messages between them. In future work, we consider splitting the single parts into separated components. Example An external developer works on the braking system of a car and thus should be able to access the required product information – i.e. information about Brakes and AntiLockBrakingSystems (ABS). Nevertheless, a specific prototype ABS-system should not be visible for him. We define following policy for a role ’ExternalBrakeDeveloper’: Policy P1 = {subject=’ExternalBrakeDeveloper’, rules={R1, R2}} Rule R1 = {‘read’, ‘permit’, {Class(Brake), Class(AntiLockBrakingSystem) }} Rule R2 = {‘read’, ‘deny’, {Individual(ABS1)}} For employees working in the sales department, we define similar rules, but explicitly permit the access to the datatype property ‘hasPurchasePrice’: Policy P2 = {subject=’Sales’, rules={R3, R4, R5}} Rule R3 = {‘read’, ‘permit’, {Class(Product)}} Rule R4 = {‘read’, ‘deny’, {Individual(ABS2)}} Rule R5 = {‘read’, ‘permit’, {DatatypeProperty(hasPurchasePrice)}} 4 Enforcing Access Policies As outlined above, security policies are enforced at a security proxy that receives queries to the ontology and rewrites them in such a way that no policies are violated considering the presence of logical inferences. In this section, we provide details about this rewriting step. The goal of the rewriting step is to create a query that returns the same results as the original query except for those answers that contain restricted information. For this purpose, the proxy first determines the access restrictions that apply for the specific query by determining the role of the issuing user and looking up the restrictions that apply to this role in the policy rules. As defined in the security framework, such rules can apply to classes, properties and instances. In this paper, we further focus on read restrictions on these elements. A proof-of-concept implementation based on the Jena framework can be downloaded at http://www.chenwilly.de/wi.html. Preliminaries Select queries in SPARQL typically contain a set of triple patterns, where subject, object and predicate may all be variables. However, for rewriting queries to meet the defined access 668 restrictions it is essential to be able to determine, if a variable will hold an individual or a data value. This can be achieved only if we assume that the predicate position within a triple is not a variable. Knowing the predicate, we can easily determine what kind of resource occurs for the subject and the object position. We refer to ?vk as variables for individuals and ?dk for data values. Temporary variables ?tk are introduced to expand the query with respect to enforce the given policies. When combining several filters we ensure that the variable names remain unique. Filtering Query Results A read restriction on individuals i1, .., in is interpreted in the way that the user is not allowed to see answers that contain this specific individual. This condition can easily be fulfilled by extending the query with the following filter condition on each of the return variables ?vk: FILTER (?vk != ex:i1 && .. && ?vk != in) This condition removes all results, where restricted individuals are bound to any of the return variables. We interpret read restriction on a class C in such a way that the user is not allowed to see answers that contain instances of the restricted class. Therefore not allowing the access to a class is equivalent to restricting the access to any individual of the class. Matters are complicated by the fact that class membership can be inferred using the ontology. Therefore, it is not possible to simply add filter restrictions for all instances that are defined to be member of restricted classes. We can however, delegate this problem to the underlying inference engine by using a filter expression on the schema level: OPTIONAL { ?vk rdf:type ?t1 . FILTER (?t1 = C) } FILTER ( ! bound (?t1 ) ) This expression checks for each return variable, whether the instance bound to the variable is of type C. If this is true, the corresponding answer is filtered out based on the criterion that variable ?t1 is bound to the restricted class. Read permission on classes can be enforced in a similar manner by adding a filter expression, which ensures that the queried instances are at least member of one of the permitted classes Ci: ?vk rdf:type ?t1. FILTER (?t1 =C1 || … || ?t1 = Cn) We further interpret restrictions on a relation R in the way that the user is not allowed to see answers in which two of the return variables are bound to instances that are in relation R to each other, because queries might be formulated in such a way, that they model the restricted relation without actually mentioning it. We again use a filter expression to filter out the corresponding answers from the result set. OPTIONAL { ?vk ?t1 ?vj . FILTER (?t1 = R) } FILTER ( ! bound (?t1 ) ) Here ?vk ≠ ?vj are return variables of the query. The expression checks whether the existence of relation R between ?vk and ?vj can be derived from the ontology. If this is the case, the corresponding answer is filtered out based on the criterion that the variable ?t1 is bound to R. This solution again delegates the problem of dealing with derivable information to the underlying inference engine which is used to check whether (?vk ?t1 ?vj) can be derived from other information 669 such as inverse relations, etc. Clearly, ?vk or ?vj may also be concrete resources. Similar to explicitly granting read access to individuals of a specific class, we can add a filter for permitting access to property values Ri: ?vk ?t1 ?vj. FILTER (?t1 = R1 || … || ?t1 = Rn) Controlling the Rewriting Process In section 4.2 we have presented the concrete filter expressions that can be used to ensure that no restricted information is returned by a query. This section now deals with linking the manipulation of the queries with the policy specifications in order to control the rewriting process. Following the assumption from 3.2, we can formulate a simple rewriting strategy that first extends the query with filters for those individuals explicitly restricted for the role under consideration and then also adds filters for concepts and relations access to which is not explicitly permitted. The corresponding simple algorithm is given below: ReWrite(Q:Query, R:Role, P:Policy) FORALL {i, read, R, deny} ∈ P DO FORALL {C, read, R, permit} ∈ P DO FORALL {C, read, R, deny} ∈ P DO FORLAL {P, read, R, permit} ∈ P DO FORALL {P, read, R, deny} ∈ P DO IF {C, read, R, permit} ∉ P DO IF {P, read, R, permit} ∉ P DO AddDenyFilter(Q,i) AddPermitFilter(Q,C) AddDenyFilter(Q,C) AddPermitFilter(Q,P) AddDenyFilter(Q,P) DenyAccess(Q) DenyAccess(Q) Verifying Anomalies in Access Policies During the creation and maintenance anomalies such as contradictory rules could occur in access policies. Since we use filters to enforce the policies, a deny rule always overrides a permit rule on the same resource. Thus, inconsistent access policies would not result in unintended information leaks. To ensure the consistency of access policies, we additionally provide an initial set of verification rules that can be applied at the metamodel level on rules that apply for the same subject: • • • • • IF EXISTS R1 = {‘read’, ‘permit’, RestrictedResource(R)}, R2 = {‘read’, ‘deny’, RestrictedResource (R)} THEN Anomaly(R1, R2) IF EXISTS R1 = {‘read’, ‘permit’, OntologyClass(C1)}, R2 = {‘read’, ‘deny’, OntologyClass(C2)} AND EquivalentClasses(C1,C2) THEN Anomaly(R1, R2) IF EXISTS R1 = {‘read’, ‘permit’, ObjectProperty(P1)}, R2 = {‘read’, ‘deny’, ObjectProperty(P2)} AND (EquivalentProperties(P1,P2) OR ObjectProperty(P1 inverseOf(P2))) THEN Anomaly(R1, R2) IF EXISTS R1 = {‘read’, ‘permit’, ObjectProperty(P1)}, R2 = {‘read’, ‘deny’, OntologyClass(C1)} AND (ObjectProperty(P1 domain(C1)) OR ObjectProperty(P1 range(C1))) THEN Anomaly(R1, R2) IF EXISTS R1 = {‘read’, ‘permit’, DatatypeProperty(P1)}, R2 = {‘read’, ‘deny’, OntologyClass(C1)} AND DatatypeProperty (P1 domain(C1)) THEN Anomaly(R1, R2) 670 5 Related Work Recently, there has been quite a bit of work on combining semantic web technologies with security issues. Most of this work, however, is about applying semantic web technologies to the problem of specifying and checking security policies and related aspects (e.g. [15]). The aspect we are interested in, the protection of knowledge encoded in an ontology has so far received less attention. Qin and Atluri [19] have presented an approach to enable access control at concept level for ontologies. Their approach is based on a propagation mechanism that derives access rights for concepts based on the semantic of the ontology and partial access rights explicitly stated. A similar approach is envisioned by Knechtel [14] who proposes to derive the access rights of derived facts from the access rights based on access restrictions imposed on stated knowledge. In contrast to this our approach relies on the re-writing on queries based on security policies. This allows us to leave the task of optimizing the execution of the query to the query engine. The inference problem, which is central to our work, has been investigated by researchers in the field of database research [7]. The problem has been investigated in the context of statistical databases, where statistical inference can be used to derive classified information from unclassified ones [16]. Special attention has been paid to the inference problem in the context of multilevel secure databases. Here it also has to be ensured that access policies are not violated between the different security layers. In our work, we have so far ignored such problems arising in multilevel security policies. Most of the work on secure databases has addressed the relational model and problems that arise from the use of database constraints. The problem of enforcing security constraints in deductive databases, a problem that is closely related to our work has so far only been addressed on a theoretical level with little concerns on implementability [3] . 6 Conclusions In this paper we have presented an approach to restrict the access to confidential knowledge that is represented using ontologies, which we consider an important feature for real world applications. We thereby fully build on existing technologies and infrastructures. The access control system relies on a security proxy, which intercepts all communication to the SPARQL endpoint of any utilized OWL reasoner. When enforcing fine-grained role-based access policies we need to take possible inferences from the ontology into account. Instead of realizing this complex issue within the security proxy, we delegate this task to the reasoner by adding SPARQL filter statements to incoming queries from users. This allows us to apply our solution with all reasoners supporting OWL Lite and SPARQL. Since the access policies and rules are highly dependent on the ontologies they have been defined for, we utilize a model-driven approach to enable their interdependent development and maintenance. Moreover, we do not need to decide for a specific representation language for either a priori, but can transform the created models to various formalisms we required. For ontologies, we can directly support OWL, F-Logic [13], and Datalog, while we may rely on the XACML specification for access policies. Future work includes the support of variables at the predicate position of triple patterns in SPARQL queries. Similarly to the rewriting of queries, we thereby aim at analyzing the query results, whether they contain confidential information. Also, we intend to support access control mechanisms for OWL DL on the one hand and OWL Lite-,p combined with rules. Clearly, hierarchical access control models will also be part of future research. 671 7 Bibliography [1] CHEN, W. and STUCKENSCHMIDT, H., Towards industrial strength knowledge bases for product lifecycle management, in: 16th European Conference on Information Systems, Galway, Ireland, 2008. [2] CHEN, W. et al., Business-oriented CAx-Integration with Semantic Technologies, in: 3rd International Applications of Semantic Technologies Workshop, Munich, Germany, 2008. [3] BONATTI, P. et al., Foundations of Secure Deductive Databases IEEE Transactions on Knowledge and Data Engineering, 1995. [4] DAVIS, M., Semantic Wave 2008 Report - Industry Roadmap to Web 3.0 & Multibillion Dollar Market Opportunities 2008 [5] DE BRUIJN, J. et al., OWL Lite-, WSML Deliverable D20 v 0.1, 2004. [6] ECKERT, C., IT-Sicherheit, Oldenburg, 2003. [7] FARKAS, C. and JAJODIA, S., The inference problem: a survey, SIGKDD Explor. Newsl., ACM, 2002. [8] FENSEL, D., Ontologies: Silver Bullet for Knowledge Management and Electronic Commerce, Springer, 2001 [9] GASEDVIC, D. et al., Model Driven Architecture and Ontology Development. Springer, 2006 [10] HAHN, A., Integration verteilter Produktmodelle durch Semantic-Web-Technologien, Wirtschaftsinformatik, 47, 278-284, 2005. [11] HEPP, M., Possible Ontologies: How Reality Constrains the Development of Relevant Ontologies, IEEE Internet Computing, 2007. [12] HITZLER, P. et al., DLP is not so bad after all, in: OWL: Experiences and Directions, 2005. [13] KIEFER, M. et al., Logical Foundations of Object-Oriented and Frame-Based Languages, Journal of the ACM, 1995. [14] KNECHTEL, M., Access rights and collaborative ontology integration for reuse across security domains, Poster, ESWC 2008 PhD Symposium, 2008. [15] KOLOVSKI, V. et al., Analyzing Web Access Control Policies, in: Proceedings of the Sixteenth International World Wide Web Conference, 2007. [16] MANDUJANO, S., Inference Attacks to Statistical Databases: Data Suppression, Concealing Controls and Other Security Trends, Aleph-Zero electronic magazine 25, 2000. [17] OASIS, A Brief Introduction to XACML, http://www.oasisopen.org/committees/download.php/2713/Brief Introduction to - XACML.html, March 2003. [18] OMG Adopted Specification, Ontology Definition Metamodel, http://www.omg.org/docs/ptc/07-09-09.pdf, 2007. [19] QIN, L. and ATLURI, V., Concept-level access control for the semantic web, in: Proceedings of the 2003 ACM workshop on XML security, 2003. [20] STAAB, S., Wissensmanagement mit Ontologien und Metadaten, Habilitation Thesis, University of Karlsruhe, 2002. [21] SYLTAKE, T. et al., How Ontologies and Rules Help to Advance Automobile Development Advances in Rule Interchange and Applications, in: Proceedings International Symposium RuleML 2007, Orlando, Florida, 2007. [22] VOLZ, R., Web Ontology Reasoning with Logic Databases, PhD thesis, Universität Fridericiana zu Karlsruhe, 2004. 672 MANAGEMENT VON MODELLBEZIEHUNGEN MIT SEMANTISCHEN WIKIS Michael Fellmann, Oliver Thomas1 Kurzfassung Der Beitrag befasst sich mit der Dokumentation von Modellen und dem Management der zwischen ihnen bestehenden Beziehungen. Zur systematischen Erfassung und Nutzung des Wissens um die Zusammenhänge und Relationen zwischen Modellen werden semantische Wikis untersucht. Hierzu wird ein Vergleichsrahmen entwickelt, der zur problemadäquaten Auswahl semantischer Wikis herangezogen wird. Zum praktischen Einsatz semantischer Wikis wird eine Metadatenstruktur entworfen und deren Verwendung anhand eines Prototyps demonstriert. 1. Einleitung Das Prozessmanagement ist gegenwärtig durch einen Sprachpluralismus gekennzeichnet. Zwar zeichnet sich mit der von der Softwareindustrie favorisierten Sprache BPMN ein De-facto-Standard ab [1], allerdings können nicht alle betriebswirtschaftlich relevanten Sachverhalte mit BPMN beschrieben werden. So lassen sich mit dieser technisch ausgerichteten Sprache bspw. organisatorische Zuständigkeiten, deren Analyse in Reorganisationsprojekten unverzichtbar ist, nicht modellieren. Die Konstruktion von Prozessmodellen und damit die zu ihrer Erstellung verwendete Sprache werden auch zukünftig von der intendierten Beschreibungsebene im Sinne einer „Nähe“ zur IT abhängen. In diesem Sinne unterscheiden sich Sprachen zur Erstellung fachlicher Prozessmodelle (z. B. EPK, UML-Aktivitätsdiagramm, IDEF3, Activity-Decision Flow Diagram) von Sprachen zur Erstellung von ausführbaren Prozessmodellen (z. B. BPMN, BPEL, XL, XPDL), bspw. im Umfang der zum Management von Fehlern und Ausnahmezuständen bereitgestellten Sprachkonstrukte. Im Ergebnis ist die Praxis der Modellierung von einer Vielzahl an Modellen geprägt, die sich hinsichtlich des Gegenstands der Modellbildung, ihrer Nähe zur IT und hinsichtlich der zu ihrer Erstellung verwendeten Modellierungssprachen und -werkzeuge unterscheiden [24, S. 9]. Die hierbei zwischen den verschiedenen Modellen bestehenden Beziehungen werden von den gegenwärtigen Modellierungswerkzeugen jedoch nur unzureichend verwaltet, obwohl dies in der Literatur bereits seit einiger Zeit gefordert wird [7; 24]. Zusätzlich verhindert oder erschwert der Einsatz mehrerer Modellierungswerkzeuge eine einheitliche Dokumentation der Modelle und Modellbeziehungen. Das Wissen um die vielfältigen, zwischen den Modellen bestehenden semantischen Beziehungen, wie bspw. in Form der Relationen „ist abgeleitet von“, „detailliert“ oder „implementiert“, ist folglich überwiegend implizit in den Köpfen einzelner Mitarbeiter einer Organisation verankert. Es liegt somit nicht explizit repräsentiert in einem zentralen Speicher vor, womit es sich einem inter1 Institut für Wirtschaftsinformatik im DFKI, Universität des Saarlandes, Stuhlsatzenhausweg 3, 66123 Saarbrücken. 673 subjektiven Verständnis entzieht und eine Wiederverwendung in mehreren Projekten nicht gegeben ist. Auch eine maschinelle Verarbeitung, z. B. zur Analyse und Suche von Abhängigkeiten zwischen Modellen, ist ohne eine explizite Dokumentation der Modellbeziehungen nicht möglich. Im vorliegenden Beitrag soll daher untersucht werden, wie das Anlegen, Speichern und Ändern von semantischen Beziehungen zwischen Modellen – kurz: das Management von semantischen Modellbeziehungen – informationstechnisch unterstützt werden kann. Bei der Gestaltung einer entsprechenden IT-Lösung muss sorgfältig zwischen formaler Präzision und pragmatischer Handhabbarkeit abgewägt werden. Bauen die semantischen Modellrelationen auf einer vorgegebenen formalen Struktur auf, so eignen sie sich zwar zur maschinellen Verarbeitung, die Interpretation realweltlicher Zusammenhänge wird jedoch ggf. erschwert. Semantische Wikis lösen diesen Konflikt auf. Sie erweitern den Wiki-Gedanken, die Zusammenarbeit zwischen verschiedenen Autoren und somit die Erstellung und Konsolidierung einer gemeinsamen Wissensbasis zu unterstützen, um semantische Technologien. Diese ermöglichen eine teilweise maschinelle Interpretation der im Wiki enthaltenen Inhalte, was durch die Annotation der Inhalte mit Elementen eines wohldefinierten Vokabulars, das bspw. als eine formale Ontologie repräsentiert werden kann, erreicht wird. Auf diesen Annotationen basierend erlauben semantische Wikis eine verbesserte Navigation, Suche und Retrieval in bestehenden Inhalten [20, S. 1]. Durch Verfahren des maschinellen Schließens können darüber hinaus auch neue Fakten aus der bestehenden Wissensbasis abgeleitet werden, wie z. B. zusätzliche Relationen zwischen Artefakten, die nicht explizit von den Autoren eines Wikis angelegt und aktualisiert werden müssen. In diesem Beitrag soll die Eignung semantischer Wikis zum Management der Dokumentation von Modellbeständen untersucht werden. Im Gegensatz zu Arbeiten, die sich domänenneutral mit der Nutzung bzw. dem funktionalen Vergleich semantischer Wikis befassen [2; 9; 27], wird hier speziell die Eignung semantischer Wikis hinsichtlich der Dokumentation von Prozessmodellen und der formalen Repräsentation der zwischen ihnen bestehenden Beziehungen untersucht. Dabei sollen sowohl generelle Merkmale semantischer Wikis herangezogen werden als auch Aspekte, die im Hinblick auf das Prozessmanagement eine besondere Rolle spielen. Der Vergleich der semantischen Wikis ist systematisch und baut auf einem einheitlichen Vergleichsrahmen auf. 2. Stand der Forschung In der Modellierung geht es häufig um die Frage, wie die Ableitung spezifischer Modelle aus einem gegebenen Modellbestand gelingen kann [12]. Die Autoren betrachten hierbei sowohl Versionsbeziehungen zwischen Modellen [14; 32] als auch Variantenbeziehungen, die in der Charakterisierung spezieller Konstruktionstechniken münden [35]. Insb. die Konfiguration spielt als spezielle Technik aufgrund ihrer Potenziale zur IT-Unterstützung eine große Rolle [10; 11; 29]. In diesen Arbeiten werden insofern zwar Relationen zwischen Modellen betrachtet, diese sind jedoch immer nur auf eine Beschreibungsebene festgelegt, d. h. liegt ein Referenzmodell auf fachkonzeptioneller Ebene oder Implementierungsebene vor, dann ist auch das aus ihm abgeleitete Modell der jeweiligen Ebene zugeordnet. Die gerade in Implementierungsprojekten notwendige Abbildung von Beziehungen zwischen fachlichen Prozessbeschreibungen und ausführbaren Prozessmodellen wird i. d. R. nicht betrachtet. Diese sollen in dieser Arbeit durch semantische Technologien gleichermaßen unterstützt werden wie die Dokumentation der Relationen auf gleicher Beschreibungsebene. Die formale Beschreibung und semantische Annotation von Modellen im Allgemeinen wird vor allem im Arbeitsgebiet des „Semantic Business Process Management“ vorangetrieben [3; 4; 33]. Die Beschreibung von Beziehungen zwischen Modellen mit Technologien des Semantic Web wird in Bezug auf Produktmodelle von Hahn [15], in Bezug auf Referenzmodelle und die daraus abgeleite674 ten Modelle von Hinkelmann, Thönssen und Probst [16] beschrieben. Die genannten Arbeiten fokussieren im Unterschied zu diesem Beitrag jedoch hauptsächlich eine Formalisierung der Semantik von Modellen auf der Ebene sprachbasierter Metamodelle oder – im Rahmen von Annotationsansätzen – der individueller Modellelemente. Eine Betrachtung der Semantik von Modellierungssprachen wird auch im Rahmen der ontologischen Analyse praktiziert [36]. Hier ist insb. das Bunge-Wand-Weber-Modell zu nennen [37]. Weitere Arbeiten zur Semantik von Modellierungssprachen sind im Umfeld der Enterprise Model Integration und von Meta-Modellierungsplattformen anzutreffen [18; 23]. Daneben existieren Werkzeuge wie METIS [17], um Beziehungen zwischen Sprachelementen und sprachbasierten Metamodellen abzubilden. Während diese Arbeiten die Semantik und das Management der Beziehungen zwischen Sprachkonstrukten von Modellierungssprachen betrachten, werden in diesem Beitrag die semantische Beschreibung und das Management der Beziehungen zwischen Modellen untersucht. Die Dokumentation von Modellen und das Management der zwischen ihnen bestehenden semantischen Beziehungen soll hier mittels semantischer Wikis unterstützt werden. Die Eignung dieser Systeme zur Unterstützung der genannten Aufgaben wird nachfolgend kriterienbasiert untersucht. 3. Vergleich semantischer Wikis 3.1. Herleitung der Vergleichskriterien Kriterien zum Vergleich semantischer Wikis in Bezug auf die Dokumentation von Modellen und das Management der zwischen ihnen bestehenden Beziehungen können in den Bereichen Modellmanagement, Modelldokumentation, Browsing und Suche sowie Kollaboration identifiziert werden. Im Bereich des Modellmanagements ist ein wesentliches Kriterium, inwiefern die Repräsentationen semiformaler Modelle in ein Wiki importiert werden können. Hierbei lassen sich grundlegend zwei Szenarien unterscheiden. Erstens kann ein Modell als Grafik, die von einem Modellierungswerkzeug erzeugt worden ist, importiert werden (indirekter Import). Zweitens kann das Modell mittels eines standardisierten Austauschformats für Modelle, wie z. B. XMI oder EPML, in das Wiki eingelesen werden (direkter Import), welches in diesem Fall die Erzeugung einer grafischen Repräsentation übernimmt. Um unterschiedliche Berechtigungen für die Nutzung des Wikis z. B. im Intranet, Extranet oder dem Internet abbilden zu können, sollte das Wiki ergänzend über eine Verwaltung von Zugriffsrechten verfügen. Eine Modelldokumentation kann bei Wikis grundlegend über die Erstellung von Wikiseiten erfolgen, die eine natürlichsprachliche Dokumentation des zu beschreibenden Modells enthalten. Um den Einarbeitungsaufwand zur Wikinutzung so gering wie möglich zu halten, ist hierbei die Unterstützung durch einen WYSIWYG-Editor wünschenswert, sodass der Nutzer keine spezielle Syntax zur Formatierung der Wikiseite erlernen muss. Semantische Wikis erlauben darüber hinaus die Zuordnung einer Wikiseite zu einem oder mehreren in einer Metadatenstruktur, wie bspw. einer Ontologie, formal definierten Konzepte. Auch die zwischen Wikiseiten bestehenden Links können semantisch genauer spezifiziert werden. Analog zur Unterstützung beim Editieren von Wikiseiten sollte das Wiki den Nutzer auch bei deren Annotation unterstützen, z. B. durch eine Auto-Vervollständigungsfunktion oder über einen WYSIWYG-Editor. Weitere Dokumentationskriterien sind, ob Metadaten und Metadatenschemata, z. B. in Form von Ontologien, importiert werden können, um somit die Inbetriebnahme eines semantischen Wikis zu erleichtern. Auch der Export ist eine relevante Funktionalität, um die Metadaten außerhalb des Wikis z. B. zur Analyse in Fremdanwendungen verwenden zu können. Zur Anpassung des Wikis an die sich ändernden Anforderungen der Modelldokumentation ist ferner relevant, ob die Metadatenstruktur innerhalb der Wikiseiten geän675 dert werden kann. Von besonderer Wichtigkeit für die Modelldokumentation ist die Versionierung sowohl der Wikiseiten als auch der zu ihnen gehörenden semantischen Metadaten, damit Änderungen an den dokumentierten Modellen bzw. der Metadaten jederzeit nachvollziehbar bleiben. Im Bereich Browsing und Suche ist, neben einer Volltextsuche zum schnellen Auffinden von Inhalten, das Vorhandensein einer Funktionalität zum facettenbasierten Browsen relevant. Somit können die zur Verfügung stehenden semantischen Metadaten zu einer effektiven und multiperspektivischen Auswahl von Modellen herangezogen werden. Als eine Facette wird hierbei ein durch die Metadatenstruktur des semantischen Wikis vorgegebenes Merkmal bezeichnet, das in Form von Relationen zwischen Modellen (z. B. „ist abgeleitet von“) oder Attributen von Modellen (z. B. „Erstelldatum“) auftreten kann. Die insgesamt im Wiki vorhandenen Werteausprägungen können im Rahmen des facettenbasierten Browsings von einem Nutzer dazu verwendet werden, schrittweise komplexe Filter zur Anzeige einer gewünschten Teilmenge des Modellbestands zu erzeugen. Zusätzlich kann das Browsing im Modellbestand durch Übersichtsseiten erleichtert werden, die Modelle nach bestimmten Kriterien auflisten. Um eine manuelle Pflege derartiger Seiten zu vermeiden, die bei einem großen Modellbestand entsprechend personalintensiv ist, sollte das Wiki über eine Möglichkeit verfügen, Wikiseiten über eingebettete Suchanfragen zu erzeugen. Diese Suchanfragen werden zur automatisierten Auswertung der über den Modellbestand gespeicherten Metadaten verwendet. Kriterien zur manuellen Suche im Modellbestand sind die Unterstützung einer Anfragesprache wie bspw. SPARQL [28] und das Vorhandensein einer Unterstützung zur Erstellung korrekter Anfragen, bspw. in Form einer Vorlage zur Anfrage oder eines Suchformulars, das die Eingabe von Anfragen erleichtert. Zur Ausschöpfung der mit der Erfassung semantischer Metadaten verbundenen Potenziale ist die Nutzung von Inferenzmaschinen ein wichtiges Kriterium, damit neue Fakten geschlossen werden können, die nicht explizit (d. h. manuell) im Wiki erfasst wurden, sondern zum Anfragezeitpunkt aus den vorhandenen Daten dynamisch abgeleitet werden. Neben den genanten Kriterien ist ergänzend zu berücksichtigen, dass Änderungskonstruktionen in Modellierungsprojekten in der Regel nicht ausschließlich am Gesamtmodell vollzogen werden. Sie werden vielmehr von Projektbeteiligten – verstärkt durch den Trend zur Arbeitsteilung in der Modellentwicklung [34] – verteilt an Detailmodellen verrichtet und anschließend zu einer verbesserten Konstruktion zusammengeführt. Kollaborationsfunktionen unterstützen hierbei die Zusammenarbeit der an der Modellerstellung und -nutzung beteiligten Akteure. Als relevante Kriterien sind insb. Funktionalitäten zum gemeinschaftlichen Indexieren (Tagging), zur Diskussion und zur Qualitätsbeurteilung (Rating) von Inhalten zu nennen. 3.2. Durchführung des Vergleichs Es existieren bereits zahlreiche Implementationen semantischer Wikis; für einen Überblick vgl. [2], zu Vergleichen siehe [9] oder [27]. Die im Rahmen dieses Beitrags betrachteten Wikis wurden anhand der Vollständigkeit der Implementierung der in diesem Beitrag genannten Kriterien, anhand des Umfangs und der Qualität ihrer Dokumentation und anhand der Häufigkeit ihrer Nennung in der Literatur ausgewählt. Da in dieser Arbeit mit dem Vorschlag von Wikis zur Dokumentation von Modellen und deren Beziehungen kollaborative Aspekte betont werden, sind Wikis, die vorwiegend das persönliche Wissensmanagement fokussieren, wie bspw. Semper [26] oder ArtificialMemory [25], nicht ausgewählt worden. Ebenso wurden Wikis nicht berücksichtigt, die ausschließlich für spezifische Inhalte entwickelt wurden, wie bspw. mathematische Formeln oder Lexika. Tabelle 1 charakterisiert die in diesem Beitrag ausgewählten semantischen Wikis. 676 Tabelle 1: Überblick über semantische Wikisysteme Name COW IkeWiki Kaukolu Makna OntoWiki Platypus Wiki Rhizome Semantic Media Wiki Sweet Wiki WikSAR Kurzprofil und Besonderheiten Quelle [13] Unterstützung der kollaborativen Konstruktion und Weiterentwicklung von Ontologien. Hierbei werden die Versionierung, Transaktionen und das Management gleichzeitiger Modifikationen unterstützt. In Wikiseiten können Ontologieinformationen zur Generierung dynamischer Inhalte und zur Fragenbeantwortung genutzt werden. [http://www.informatik.uni-freiburg.de/cgnm/software/cow/] [30] Es gestattet unterschiedliche Grade der Formalisierung von einfachen Texten bis hin zu Ontologien. Das Wiki unterstützt die W3C-Standards RDF und OWL und erlaubt automatische Schlussfolgerungen in der Wissensbasis. Zum Editieren steht ein WYSIWYG-Editor zur Verfügung. [http://ikewiki.salzburgresearch.at/] [19] Die Annotation von Wikiseiten mit semantischen Konzepten erfolgt flexibel, sodass keine strikte 1:1-Beziehung zwischen beiden bestehen muss. So ist es bspw. möglich, einzelne Textpassagen (z. B. juristischer Texte) anhand bereits existierender Ontologien zu annotieren und diese Informationen zum Retrieval zu nutzen. Es kann zwischen einer seitenorientierten Sicht und einer Sicht auf die Annotationen gewechselt werden. [http://kaukoluwiki.opendfki.de/] [21] Es können vorgefertigte Ontologien in das Wiki importiert und anschließend zur Erzeugung von Instanzdaten verwendet werden. Zum Editieren von Wikiseiten und zur Suche stehen zahlreiche interaktive Assistenten zur Verfügung. [http://www.apps.ag-nbi.de/makna/] [5] OntoWiki fokussiert agile und verteilte Wissensprozesse. Hierzu unterstützt das Wiki diverse Visualisierungen und Sichten auf die Wissensbasis, wie bspw. ein facettenbasiertes Browsing oder die Integration von geografischen Karteninformationen. Die Zusammenarbeit wird u. a. durch die Möglichkeit unterstützt, jeden Teil der Wissensbasis zu diskutieren, die Popularität von Inhalten bewerten und die Aktivitäten eines Nutzers belohnen zu können. [http://ontowiki.deri.at/] Es handelt sich um ein einfaches Wiki, das um eine Nutzerschnittstelle zur Annotation von Wikiseiten mit Metadaten erweitert – wurde. Unterstützt werden hierbei die Formate RDF, RDF-Schema und OWL. [http://platypuswiki.sourceforge.net/] [31] Es handelt sich um ein wiki-ähnliches Content-Management-System. Gesamte Seiten, d. h. deren Inhalte und Struktur, können als editierbare RDF-Daten ausgegeben werden. Rhizome unterstützt das Editieren von Seiten u. a. durch eine eigene Textformatierungssprache, mit der beliebige XML- und RDF-Daten beschrieben werden können. [http://rx4rdf.liminalzone.org/Rhizome] Als Erweiterung von MediaWiki, der Software, die u. a. von Wikipedia genutzt wird, zielt Semantic MediaWiki auf eine einfa[21] che Benutzbarkeit und Skalierbarkeit ab, um semantische Technologien für eine möglichst große Anwendergruppe zu erschließen. Ein größeres Projekt, in dem Semantic MediaWiki eingesetzt wird, ist die Schaffung der „Semantic Wikipedia“. [http://semantic-mediawiki.org/] [8] Kern dieses Wikis ist ein um semantische Technologien erweiterter Web Server. Dieser gestattet die direkte Einbettung von Schlagworten (Tags) in Wikiseiten. Die zwischen den Schlagworten bestehenden Bezüge können in Form einer Ontologie von den Administratoren festgelegt werden. Eine in den Server integrierte semantische Suchmaschine erlaubt die Suche und Navigation in den Seiten. [http://www-sop.inria.fr/teams/edelweiss/wiki/wakka.php?wiki=SweetWiki] [6] Dieses Wiki gestattet eine einfache semantische Annotation und Suche. Durch in Seiten eingebettete Anfragen können Kollektionen von Informationsobjekten dargestellt werden. Eine Visualisierung als Graph vermittelt einen Überblick über die WikiInhalte. [http://wiki.navigable.info/] Tabelle 2 zeigt die Ergebnisse des Vergleichs der zuvor ausgewählten semantischen Wikis. Sofern ein Kriterium bzw. eine Funktionalität von einem Wiki implementiert ist, wird dies durch einen ausgefüllten Kreis z angezeigt. Der umgekehrte Fall wird durch einen leeren Kreis { angezeigt. Wie aus Tabelle 2 ersichtlich ist, weisen die für den Vergleich herangezogenen Wikis bereits eine relativ hohe Implementierungsrate in Bezug auf Funktionalitäten auf, die dem Bereich der Modelldokumentation zuzuordnen sind. So unterstützen die meisten Wikis den Import von Metadatenstrukturen in Form von RDF- oder OWL-Ontologien, eine Unterstützung der Annotation wird ebenfalls von der Mehrheit der betrachteten Wikis bereitgestellt. Demgegenüber weisen die anderen in diesem Vergleich beurteilten Bereiche einen deutlich geringeren Implementierungsstand auf. Im Bereich des Modellmanagements etwa ist zu konstatieren, dass keines der verglichenen Wikis den Import von Modellen in einem Standard-Austauschformat erlaubt. Auch Funktionalitäten im Bereich der Kollaboration sind noch relativ selten anzutreffen. Als gravierend hinsichtlich der Verwendbarkeit der verglichenen semantischen Wikis sind die Mängel im Bereich des Browsings und der Suche zu bewerten. Nur wenige der verglichenen Wikis gestatten ein facettenbasiertes Browsen und in Seiten eingebettete Anfragen, die für die Navigation in großen Modellbeständen und die Generierung von Übersichtsseiten (z. B. Auflistung aller Modelle, die von einem Modell abgeleitet wurden) unabdingbar sind. Es ist jedoch zu erwarten, dass diese Probleme hinsichtlich der Nutzung der semantischen Metadaten mittelfristig durch verbesserte Implementierungen der Wikis behoben werden, womit diese dann zur Dokumentation, Suche, Bewertung, Diskussion und Analyse von Modellen und den zwischen ihnen bestehenden Beziehungen eingesetzt werden können. Eine zu diesem Einsatz erforderliche, grundlegende Anpassung der Wikisysteme betrifft die Metadatenstruktur, die zur Annotation der Modelle und der zwischen ihnen bestehenden Relationen 677 verwendet wird. Die erforderliche Metadatenstruktur kann entweder in das zu verwendende Wiki importiert werden – der Import von Metadatenstrukturen bspw. in Form von Ontologien ist bei den meisten Wikis bereits möglich (Tabelle 1, Merkmal „Import von Metadaten / Ontologien“) – oder über den im Wiki vorhandenen Editor angelegt werden. Nachfolgend wird eine solche Metadatenstruktur in Form einer Ontologie entwickelt. COW IkeWiki Kaukolu Makna OntoWiki Platypus Wiki Rhizome Semantic Media Wiki Sweet Wiki WikSAR Tabelle 2: Vergleich semantischer Wikis Import von Modellen als Grafik { z { z z { z z z z Import von Modellen über Austauschformat { { { { { { { { { { Verwaltung von Zugriffsrechten { z z z z { z z z { WYSIWYG-Editor { z { { z { { { z { Unterstützung der Annotation { z z z z z { { z { Import von Metadaten / Ontologien { z z z z z z z z { Export von Metadaten / Ontologien z z z z z z z z z z Editieren von Metadatenstrukturen / Ontologien in den Wikiseiten z z { { z { { { z z Versionierung Wikiseite z z { z z z z z z { Versionierung Metadaten { z { z z { z z z { Facettenbasiertes Browsen { { z { z { { { z { In Seiten eingebettete Abfragen z { { { { { { z { z Nutzung einer Anfragesprache z { { { { z z z { z Unterstützung der Anfrage z { { z { { { { { { Anfrage mit Inferenz { z { z z z { { z { Volltextsuche z z z z z z z z z z Bewertung und Popularität { { { { z { z { { { Diskussionsseiten, Kommentare { { z { z { z { { { Verschlagwortung { z { { { { { { z { Modellmanagement Modelldokumentation Browsing und Suche Kollaborationsfunktionen 4. Metadatenstruktur zum Management von Modellbeziehungen Als Metadaten werden allgemein Daten bezeichnet, die semantische, strukturelle, administrative und technische Daten über andere Daten bereitstellen [22, S. 85]. In diesem Sinne handelt es sich bei der Metadatenstruktur zum Management von Modellbeziehungen um eine Struktur, die vorgibt, wie semantische Daten zur Repräsentation von Modellbeziehungen zu strukturieren sind. Hierbei werden zum einen Daten betrachtet, welche die Beziehungen der Modelle untereinander repräsentieren (Modellrelationen). Zum anderen werden Daten betrachtet, die die Beziehungen von Modellen zu weiteren, sie charakterisierenden Informationsobjekten repräsentieren (Modellattribute). Abbildung 1 zeigt die Metadaten in Form einer UML-Metadatenontologie (eine OWL-Version der Ontologie kann unter http://www.semantic-business.org/ontologies/2008/08/sbpmwiki.owl abgerufen werden). Die Klassen der Ontologie sind als UML-Klassen visualisiert, Relationen als UMLAssoziationsklassen. Spezielle Eigenschaften der Relationen, wie Transitivität oder der Symmetrie, sind durch Pfeile in den Bezeichnungen der Assoziationsklassen ersichtlich. 678 Abbildung 1: Metadatenontologie Modellrelationen werden unterschieden in eine Teil-Ganzes-Beziehung partOf und eine weitere Beziehung zur Repräsentation einer inhaltlichen Nähe, Verbindung oder Verknüpfung isRelatedTo. Die partOf-Beziehung drückt aus, dass ein Modell als Teil eines anderen Modells aufgefasst werden kann. Bei einem Teilmodell kann es sich in diesem Sinne sowohl um ein in sich abgeschlossenes, eigenständiges Modell handeln, als auch um ein Modellfragment. Ein Beispiel für partOf-Beziehungen sind die von fast allen Modellierungssprachen zur Verfügung gestellten Konstrukte zur Desaggregation von Detailmodellen, die als Teil des übergeordneten Modells aufzufassen sind. Der Beziehungstyp isRelatedTo wird weiter spezialisiert in eine Implementierungsbeziehung isImplementationModelOf, eine Detaillierungsbeziehung isDetailedModelOf, eine Verknüpfungsbeziehung isConnectedTo und eine Ableitungsbeziehung isDerivedFrom. Die Implementierungsbeziehung isImple mentationModelOf drückt aus, dass ein Modell die computergestützt ausführbare Umsetzung der Strukturen eines anderen Modells ist. Hierzu können dem ausführbaren Modell weitere Strukturen bzw. Informationen hinzugefügt werden. Ein Beispiel für diese Beziehung bildet ein BPEL-Modell, das ein Implementierungsmodell des korrespondierenden BPMN-Modells ist. Bei der Detaillierungsbeziehung besitzt das referenzierende Modell ebenfalls mehr Einzelheiten als das über die Relation isDetailedModelOf referenzierte Modell. Im Unterschied zur Implementierungsbeziehung dienen diese zusätzlichen Details jedoch primär einer detaillierten Erfassung des Gegenstandsbereiches des Modells. Die Verknüpfungsbeziehung isConnectedTo gestattet die Repräsentation beliebiger Verbindungen zwischen Modellen. Ein Beispiel hierfür ist die Repräsentation der Beziehungen zwischen Modellen, die über Prozessschnittstellen miteinander verbunden sind. Mit der Ableitungsbeziehung isDerivedFrom kann der Sachverhalt repräsentiert werden, dass ein Modell durch einen Vorgang der Adaption aus einem anderen Modell hervorgegangen ist. Dieser Beziehungstyp kann weiter spezialisiert werden in die Beziehungstypen containsModel, isAnalogousTo, isConfigurationOf, isInstantiationOf und isSpecializationOf, die mit den in der Referenzmodellierung üblichen Konstruktionstechniken Aggregation, Analogiekonstruktion, Konfiguration, Instanziierung und Spezialisierung korrespondieren. Grundlegende Modellattribute sind die Beschreibungssicht (z. B. Prozesse und Daten), die Beschreibungsebene (z. B. Fachkonzept), die verwendete Sprache (z. B. EPK) und die Sichtbarkeit eines Modells innerhalb und außerhalb der Grenzen einer Organisation (z. B. öffentlich). Die genannten Attribute können über entsprechende Beziehungstypen zwischen der Klasse Modell und den Klassen DescriptionView, DescriptionLevel, Language und Visibility repräsentiert werden. Der praktische Einsatz der zuvor entwickelten Metadatenstruktur wird anhand einer Benutzeroberfläche (GUI) als Teil einer prototypischen Implementierung verdeutlicht (Abbildung 2). 679 Abbildung 2: Benutzeroberfläche zur Anwendung der Metadatenstruktur Im linken oberen Bereich der GUI kann der Benutzer alternativ zur Benutzung der Suchfunktion relevante Modelle auch durch die Auswahl von Facetten auffinden, welche die Menge der im unteren Bereich unter „Items“ angezeigten Modelle einschränken. Der Hauptbereich der GUI zeigt eine Wikiseite zur Dokumentation eines Modells, die dessen Beziehungen zu anderen Modellen mit einschließt. Nach der Beschreibung des Modells im Bereich „Description“ erfolgt unter „References“ eine Anzeige der Modellrelationen, die mit Hilfe der in Abbildung 1 gezeigten Metadatenstruktur spezifiziert wurden. Bei den Modellrelationen handelt es sich um die in der Metadatenstruktur definierten Relationstypen isReleatedTo und partOf sowie um Ableitungen dieser Relationstypen. Die Anzeige der Relationstypen erfolgt als Link; hinter jedem Link ist die Anzahl der Modelle vermerkt, die mit dem betrachteten Modell über den jeweiligen Relationstyp in Verbindung stehen. Folgt ein Benutzer einem Link, so wird eine Liste der betreffenden Modelle angezeigt, aus der ein Benutzer ein ihn interessierendes Modell selektieren kann. Somit kann ein Nutzer des Wikis in der durch die Metadatenstruktur entstehenden netzartigen Verlinkung der Modelle navigieren. Zur Verbesserung der Übersichtlichkeit ist die Anzeige der Modellrelationen weiter nach eingehenden und ausgehenden Links sortiert. Eingehende Links entsprechen Modellrelationen, die auf anderen Modellen auftreten und das betrachtete Modell als Ziel der Relation referenzieren. Ausgehende Modellrelationen entsprechen Relationen, die auf dem betrachteten Modell auftreten und als Ziel andere Modelle referenzieren. Weitere Metadaten über ein Modell werden in einer Infobox „Model Profile“ angezeigt. Die Überschriften, wie „Description Level“, entsprechen den Modellattributen, die in der Metadatenstruktur (Abbildung 1) definiert sind. Die Ausprägungen dieser Attribute werden jeweils als Links angezeigt. Folgt der Benutzer einem Link, gelangt er auf eine Wikiseite, welche die entsprechende Ausprägung erläutert. Sämtliche Informationsbereiche, wie die Beschreibung eines Modells, Modellrelationen und Modellattribute, sind direkt editierbar. Somit können alle Inhalte jederzeit von den Benutzern weiterentwickelt werden. Über den Reiter „Discussion“ im oberen Bereich der GUI kann der Austausch der Benutzer unterstützt und über den Reiter „Version/History“ können Versionen eines Modells zum Nachvollziehen von Entwicklungsprozessen eingesehen werden. 680 5. Konklusion und Ausblick Eine Modellierungsaufgabe besitzt keine einzigartige, ihr immanente Lösung. Jedes Subjekt kann zu unterschiedlichen „gültigen“ Lösungen gelangen. Das Konstruktionsergebnis ist immer ein Konsens über das von den beteiligten Subjekten unterschiedlich wahrgenommene Modellobjekt. Um die Nachvollziehbarkeit des Erstellungsprozesses zu gewährleisten, müssen die Umstände der Modellierer, ihr Vorgehen und ihre Ergebnisse dokumentiert werden. Die Dokumentation dieser Metadaten kann durch semantische Wikis unterstützt werden. Im Vergleich zu den bislang im Prozessmanagement eingesetzten Modellierungswerkzeugen einerseits und „klassischen“ Wikis andererseits bietet der in diesem Beitrag beschriebene Einsatz von semantischen Wikis die folgenden Vorteile: – – – – Partizipativer und integrativer Ansatz: Durch die Verfügbarkeit der semantischen Wikis über einen Webbrowser ohne die Installation einer weiteren Software sowie durch die leichte Editierbarkeit von Wikiseiten wird die Hemmschwelle zur Mitarbeit bedeutend gesenkt. Die Ergebnisse von Modellierungsprojekten können somit von einer großen Anzahl von Mitarbeitern im Unternehmen entdeckt, diskutiert, bewertet und wiederverwendet werden. Inkrementelle Wissenserarbeitung und -teilung: Wikiseiten können mit ersten Ideen in Textform oder unvollständigen Modellen begonnen werden, die in einem Prozess der Verfeinerung und Konsolidierung schrittweise detaillierter ausgearbeitet werden. Jeder Schritt bleibt anhand einer Versionierung und/oder mit Hilfe von Diskussionsseiten jederzeit nachvollziehbar. Organische Strukturierung: Eine Strukturierung des Modellbestandes ist an keine festen Hierarchien gebunden und kann sich daher evolutionär entwickeln. Zwischen den Modellen können beliebige Beziehungen etabliert werden, die formal über eine Ontologie definiert und kontrolliert werden können. Semantische Navigation und Suche: Durch die Verwendung formaler Ontologien im Hintergrund der Wikiseiten wird die Navigation und Suche im Modellbestand verbessert. Somit kann bspw. untersucht werden, welche Modelle von der Änderung eines anderen betroffen sind, da im Wiki eine Ableitungsrelation zwischen den Modellen gespeichert wurde. Durch die Verwendung einer Inferenzmaschine können neue Zusammenhänge automatisiert geschlossen werden, was über die Möglichkeiten zur Suche und Navigation in traditionellen Modell-Repositorien deutlich hinausgeht. Aufgrund der oben genannten Potenziale semantischer Wikis zur Verbesserung der Kommunikation der am Prozessmanagement beteiligten Akteure und zur Externalisierung von implizitem Wissen über Beziehungen zwischen Modellen erscheint eine zukünftige Integration von klassischen Modellierungswerkzeugen mit semantischen Wikis äußerst vielversprechend. Eine offene Forschungsfrage ist hierbei allerdings, ob Wiki-Funktionalitäten in klassische Modellierungswerkzeuge zu integrieren sind oder ob Wikis um Funktionalitäten zur Modellierung erweitert werden sollten. 6. Literatur [1] OMG (Hrsg.): Business Process Modeling Notation Specification : Final Adopted Specification dtc/06–02–01. Needham : OMG, 2006 [2] Völkel, M. (Hrsg.): Proc. of the 1st Workshop on Semantic Wikis – From Wiki to Semantics (SemWiki2006), held at ESWC 2006, June 11–14, Budva, Montenegro [3] Hinkelmann, K. et al. (Hrsg.): Proc. of the Workshop on Semantics for Business Process Management, held at ESCW 2006, June 11–14, Budva, Montenegro, June 2006 [4] Hepp, M. et al. (Hrsg.): Proc. of the Workshop on Semantic Business Process and Product Lifecycle Management (SBPM 2007), held at ESWC 2007, June 3–7, Innsbruck, Austria, 2007 [5] Auer, S.; Dietzold, S.; Riechert, T.: OntoWiki – A Tool for Social, Semantic Collaboration. In: Cruz, I. F. et al. (Hrsg.): Proc. of the 5th Int‘l Semantic Web Conf. (ISWC 2006), November 5–9, Athens, Georgia, USA. Berlin : Springer, 2006, S. 736–749 681 [6] Aumueller, D.: Semantic authoring and retrieval within a Wiki. Demo Session at the 2nd Europ. Semantic Web Conf. (ESWC 2005), May 29–June 1, Heraklion, Greece, 2005 [7] Boudjlida, N. et al.: A practical experiment on semantic enrichment in a homogeneous environment, Deliverable DTG4.1, INTEROP Network of Excellence (IST–508 011), 2005 [8] Buffa, M. et al.: SweetWiki: A semantic wiki. In: Web Semantics: Science, Services and Agents on the World Wide Web 6 (2008), Nr. 1, S. 84 –97 [9] Buffa, M. et al.: SweetWiki : Semantic Web Enabled Technologies in Wiki. In: Proc. of the 1st Workshop on Semantic Wikis, held at ESWC 2006, June 11–14, Budva, Montenegro, 2006, S. 74 –88 [10] Delfmann, P.: Adaptive Referenzmodellierung. Berlin : Logos, 2006 [11] Delfmann, P.; Knackstedt, R.: Towards Tool Support for Information Model Variant Management – A Design Science Approach. In: Österle, H. et al. (Hrsg.): Proc. of the 15th Europ. Conf. on Information Systems. University of St. Gallen, 2007, S. 2098–2109 [12] Fettke, P.; Loos, P.: Referenzmodellierungsforschung. In: Wirtschaftsinformatik 46 (2004), Nr. 5, S. 331–340 [13] Fischer, J. et al.: Ideas and Improvements for Semantic Wikis. In: Sure, Y.; Domingue, J. (Hrsg.): Proc. of the 3rd Europ. Semantic Web Conf. (ESWC 2006), June 11–14, Budva, Montenegro. Berlin : Springer, 2006, S. 650–663 [14] Greiffenberg, S.: Methodenentwicklung in Wirtschaft und Verwaltung. Hamburg : Kovac, 2004 [15] Hahn, A.: Integration verteilter Produktmodelle durch Semantic-Web-Technologien. In: Wirtschaftsinformatik 47 (2005), Nr. 4, S. 278–284 [16] Hinkelmann, K.; Thönssen, B.; Probst, F.: Referenzmodellierung für E-Government-Services. In: Wirtschaftsinformatik 47 (2005), Nr. 5, S. 356–366 [17] Jørgensen, H. D.; Lillehagen, F.; Karlsen, D.: Collaborative Modelling and Metamodelling with the Enterprise Knowledge Architecture. In: Enterprise Modelling and Inform. Systems Architecture 1 (2005), Nr. 1, S. 36– 45 [18] Karagiannis, D.; Kühn, H.: Metamodelling Platforms. In: Bauknecht, K. et al. (Hrsg.): E-Commerce and Web Technologies : 3rd Int‘l Conf., Aix-en-Provence, Sept. 2–6, 2002, London : Springer, 2002, S. 182–196 [19] Kiesel, M.: Kaukolu: Hub of the Semantic Corporate Intranet. In: Proc. of the 1st Workshop on Semantic Wikis – From Wiki to Semantics, held at ESWC 2006, June 11–14, Budva, Montenegro, 2006, S. 31–32 [20] Krötzsch, M.; Schaffert, S.; Vrandecic, D.: Reasoning in Semantic Wikis. In: Reasoning Web. Berlin : Springer, 2007, S. 310–329 [21] Krötzsch, M.; Vrandecic, D.; Völkel, M.: Semantic MediaWiki. In: Aberer, K. (Hrsg.): Proc. of the 5th Int‘l Semantic Web Conf. (ISWC 2006), November 5–9, Athens, USA. Berlin : Springer, 2006, S. 935–942 [22] Kuhlen, R.; Seeger, T.; Strauch, D.: Grundlagen der praktischen Information und Dokumentation. Band 2: Glossar. 5. Aufl. München : Saur, 2004 [23] Kühn, H.; Bayer, F.; Junginger, S.; Karagiannis, D.: Enterprise Model Integration. In: Bauknecht, K. et al. (Hrsg.): Proc. of the 4th Int‘l Conf. EC-Web, Prague, Czech Rep., Sept. 2003. Berlin : Springer, 2003, S. 379–392 [24] Lippe, S.; Greiner, U.; Barros, A.: A Survey on State of the Art to Facilitate Modelling of Cross-Organisational Business Processes. In: Nüttgens, M.; Mendling, J. (Hrsg.): XML4BPM 2005, 01. März 2005, S. 7–22 [25] Ludwig, L.; O‘Sullivan, D.; Zhou, X.: Artificial Memory Prototype for Personal Semantic Subdocument Knowledge Management. Demo at the 3rd Int‘l Semantic Web Conf., Nov. 7–11, Hiroshima, Japan, 2004 [26] Oren, E.: A Semantic Wiki approach for integrated data access for different workflow meta-models, DERI Technical Report 2006–02–03, 2006 [27] Panagiotou, D.; Mentzas, G.: A comparison of Semantic Wiki Engines : Slides presented at the 22nd Europ. Conf. on Operational Research, July 2007, Prague, Czech Republic, 2007 [28] Prud‘hommeaux, E.; Seaborne, A.: SPARQL Query Language for RDF : W3C Recommendation 15 January 2008. W3C, 2008 [29] Rosemann, M.; van der Aalst, W.: A configurable reference modelling language. In: Information Systems 32 (2007), Nr. 1, S. 1–23 [30] Schaffert, S.: IkeWiki: A Semantic Wiki for Collaborative Knowledge Management. In: Proc. of the 1st international workshop on Semantic Technologies in Collaborative Applications (STICA 2006) [31] Souzis, A.: Building a Semantic Wiki. In: IEEE Intelligent Systems (2005), S. 87–91 [32] Thomas, O.: Design and Implementation of a Version Management System for Reference Modeling. In: Journal of Software 3 (2008), Nr. 1, S. 49–62 [33] Thomas, O.; Fellmann, M.: Semantic Business Process Management: Ontology-Based Process Modeling Using Event-Driven Process Chains. In: IBIS Journal 2 (2007), Nr. 1, S. 29– 44 [34] vom Brocke, J.: Referenzmodellierung. Berlin : Logos, 2003 [35] vom Brocke, J.; Buddendick, C.: Reusable Conceptual Models – Requirements Based on the Design Science Research Paradigm. In: Hevner, A. R. (Hrsg.): 1st Int‘l Conf. on Design Science Research in Information Systems and Technology : February 24 –25, 2006, Claremont, CA, 2006 [36] Weber, R.: Conceptual Modeling and Ontology: Possibilities and Pitfalls. In: Journal of Database Management 14 (2003), Nr. 3, S. 1–20 [37] Weber, R.: Ontological foundations of information systems. Melbourne : Coopers & Lybrand, 1997 682 PROCESS-ORIENTED SEMANTIC BUSINESS MODELING Ivan Markovic, Florian Hasibether, Sukesh Jain1, Nenad Stojanovic2 Abstract In process-driven organizations, process models are the basis on which their supporting processaware information systems are built. Process modeling today is a highly complex, time consuming and error-prone task. In this paper, we define the abstraction levels of process modeling and extract the business knowledge required for modeling a process. Further, we present a processoriented enterprise ontology framework for capturing all relevant aspects of process models. Finally, we provide a set of application scenarios to illustrate the usage of the ontology framework. In this way, we reduce the complexity of process modeling, enable improved enterprise transparency and help ensuring the quality of designed process models. 1. Introduction In the 1990s, process orientation was introduced [4] to achieve a holistic view on an enterprise, with business processes as the main instrument for organizing the operations of an enterprise [10]. The innumerable benefits of investing in business process techniques were demonstrated in efficiency, productivity, cost reduction, quality, faster results, standardization, and, above all, in the encouragement of innovation, leading to competitive advantage and client satisfaction [3]. This followed with the introduction of process-aware information systems (PAIS) [9] as means to support the information workers in performing business processes. PAIS are driven by explicit process models, which enable a better understanding of business processes, facilitate communication between business analysts and IT experts and serve as a basis for the management and execution of business processes. However, the sources of business knowledge that describe the processes of an organization are diverse and scattered in IT-supported processes, business documents, presentations and the heads of business people. Currently, there is no agreed upon meta-model which covers the representation of all relevant aspects of process models. On the other hand, Semantic Web (SW) technologies have shown the potential in integrating the knowledge coming from various sources by means of ontologies. In addition, SW provides concepts and tools for automated inference on the represented knowledge, which enables the provision of some additional services based on existing process knowledge. 1 SAP Research, Karlsruhe, Germany 2 FZI, Karlsruhe, Germany 683 The goal of this paper is to show how semantic technologies can facilitate structuring and modeling the knowledge related to business processes and to illustrate the benefits of evaluation on different levels of process modeling. To achieve this, we contribute with i) defining the abstraction levels of process modeling and process information in models, ii) presenting a formal model for capturing all relevant aspects of process models and iii) describing a set of application scenarios. The paper is structured as follows. Section 2 gives an overview of related work and identifies some open issues. In section 3, we discuss the notion of the process in more detail and provide a layering from high-level business concepts down to process models. Section 4 presents our formal model for capturing the knowledge related to business process design. We discuss the application scenarios of our formal model in section 5. Finally, section 6 summarizes our contribution and indicates the areas for future work. 2. Related work In this section we give an overview of the related work. We start with the conventional approaches and continue with the semantic-based ones. ARIS (Architecture of Integrated Information Systems) is a method for analyzing processes and taking a holistic view of process design, management, workflow, and application processing [2]. ARIS consists of five views: organizational view, data view, control view, function view, and product/service view. However, the conceptual model of ARIS does not provide formal semantics which allows only for syntax-based analysis of models. The Object Management Group (OMG) has been developing a set of business modeling standards for enabling business flexibility. Business Process Modeling Notation (BPMN)3 specification aims to define a standard modeling notation for business process models. Business Motivation Model (BMM) [11] standard provides a schema for modeling business plans. However, these standards do not cover all the relevant aspects and do not define the formal semantics of the concepts, attributes and relations defined in the specifications. This makes it impossible to perform automated inference on models created using these specifications. One of the earliest initiatives within the enterprise ontology approaches was the TOVE project [12] that aimed at development of a set of integrated ontologies for enterprise modeling. TOVE Common Sense Model of Enterprise included three levels: reference model with typical business functions (finance, sales, distribution, and administration), generic model (with such concepts as time, causality, space, resources), and concept model (e.g. role, property, structure). However, the granularity of developed ontologies may be perceived inconsistent what hampers their potential application. Enterprise Ontology (EO) [13] is a collection of terms and definitions relevant to business enterprises. It was developed as part of the Enterprise Project, with the aim to provide a framework for enterprise modeling. EO is divided into five parts: i) terms related to processes and planning, ii) terms related to organizational structure, iii) terms related to high-level planning for an enterprise, iv) terms relating to marketing and sales of goods and services and v) terms used to define the terms of the ontology together with a few terms related to time. It was first completed in natural language format and afterwards ported to Ontolingua [13]. Finally, in [6], a set of ontologies for Semantic Business Process Management [5] is proposed. This work gives a rather high-level overview of an ontology stack covering the full BPM lifecycle, based on the ARIS [2] 3 Object Management Group. Business Process Modeling Notation – BPMN 1.0. http://www.bpmn.org/, 2006. 684 methodology. However, in order to make use of it, the stack needs to be refined and enriched and some application scenarios need to be defined. The conventional approaches do not cover all aspects of process description (e.g. business motivation) and do not define formal semantics for the models, while enterprise ontology works fail to provide a process-centric view on the organization. Enterprise ontologies are also not available in any contemporarily recognized ontology language standard for which an efficient reasoner exists. Common weakness of all the works is that they do not provide process abstraction levels to reduce modeling complexity. 3. Process hierarchy and process information in models In this section we provide two viewpoints for structuring of process knowledge with the purpose of managing process complexity. In subsection 3.1 we present a way to deal with a company’s process landscape, starting from a motivational (strategic) level, by gradually enriching the process descriptions with more details (scenario level) until the level of concrete activities have been reached (operational level). Another method to deal with the aforementioned complexity is, to have a clear understanding what sorts of information an organization deals with. We therefore present a process-centric view on the organization in subsection 3.2. 3.1. Levels of abstraction Enterprise processes are highly complicated as they span across many functional areas, involve many actors, governed by enterprise policies, government regulations, etc. To model such a process with all information is highly complex and would also defy the principle of modeling itself. Hence enterprise processes are modeled with various levels of abstraction. Each level of abstraction models a viewpoint of the enterprise process with a certain level of details for a specific purpose (artifacts associated using dotted arrows in Figure 1). The topmost level usually gives a conceptual view and one can gradually drill down from it to more concrete and detailed processes, as indicated with bold arrows in Figure 1. There is no limit on the number of levels but modeling usually stops at the smallest business relevant activity which has no further process level below. Inspired by SAP Business Maps4 we visualize the levels of abstraction with a pyramid-like structure, as shown in the Figure 1. We have found six different abstraction layers which we are describing in the following. Business Motivation forms the top most layer of the pyramid. It models the various driving forces (i.e. goals, strategies, metrics, etc.) of the enterprise and the relationships between them (cf. top left of Figure 1). The business motivation model is then structured along the industry-specific value chain. The value chain is composed of a sequence of value-creating functional areas - so called value chain elements. It starts from a supplier and ends in a consumer. The top right of Figure 1 shows the telecommunication industry value chain with its value chain elements. A Business Scenario Group is a collection of business scenarios with the same business goals. It can span across several functional areas (cf. center of Figure 1) and sometimes also integrates consumers and suppliers delimitating a value chain. A Business Scenario is a set of logically related business processes performed to achieve defined and measurable business objectives. Each Business scenario is associated with metrics (key performance indicators) as efficiency benchmarks as shown for Lead and Opportunity Management scenario in center right of Figure 1. A Business Process is a 4 SAP Business Maps comprise the content delivered with the SAP Solution Composer, which is a modeling tool freely provided by SAP for creating and browsing business-related diagrams. As a result of evolutionary adoptions and alignments of their content, the Business Maps offer a representative snapshot of the concepts and terminology perceived and applied in every-day business. http://www.sap.com/solutions/businessmaps/index.epx. 685 set of operations within a business scenario. All Business processes follow a well defined flow in order to achieve the business objectives of its scenario. A Business Process Step represents an operation of a business process that performs a defined function. The bottom right part of Figure 1 shows the process steps of the Lead Processing process. All business process steps are connected in a business logical flow in order to fulfill the purpose of the business process. Legend Belongs To Actor has a Business Motivation Refinement is driven by Telecommunications - EDITION 2008 SAP SOLUTION MAP Suppliers Design & Build & Partners Infrastructure Operate Infrastructure Develop & Promote Products & Sell & Fulfill Services Bill & Collect Assist Customers Customers & Channels Network Life-Cycle Management Goal Marketing Analytics & Product Management Strategy affects assigned to Sales & Service Fulfillment Dealer Management Metrics Industry Value Chain assigned to Influencer Billing, Invoicing & Presentment Customer Financials Management e.g. Telecommunications Customer Service Sales & Service Fulfillment Business Scenario Group e.g. Sales & Service Fulfillment BUSINESS SCENARIO GROUP Suppliers Design & Operate & Build Infrastructure Partners Infrastructure Develop & Promote Products & Services Sell & Fulfill Bill & Assist Customers & Collect Customers Channels Sales & Service Fulfillment Lead and Opportunity Management LEAD AND OPPORTUNITY MANAGEMENT SCENARIO Business Objectives: Improving Customer Service • Support multi-channel interaction Increase Speed & Efficiency • Automate - eliminate errors due to manual processes Increasing Transparency & Accountability • Increase data transparency • Provide decision support Reducing Operating Costs & Increasing Efficiency • Reduce administration, improve business processes Sales and Order Management Customer Field Service Management Business Scenario Key Performance Indicators: Logistics Management • Sales • Salesperson's Time Spent Selling (Percentage) • Sales Cycle Time (Orders) e.g. Lead & Opportunity Management Business Process Business Process Step Business Processes: This process enables manual and automatic qualification of leads. Lead Lead processing also includes the creation of a business Processing transaction, such as an opportunity, from a lead. e.g. Lead Processing e.g. Qualify Lead Lead Analysis Analyzes the success, efficiency, and processing over time of leads. Create or Generate Lead Assign products or product categories Qualify lead (manually or based on survey) Distribute lead to employee or external partner Follow up on lead and create opportunity + + + + + ~ Figure 1: Processes at different levels of abstraction Business Process Frameworks5, which are becoming popular in companies, serve the similar purpose. They provide a common language, a set of high level processes and its associated metrics which one can use as a template to quickly and easily define new processes or evaluate and improve existing ones based on the provided metrics. Some of the best known examples are Supply Chain Council’s SCOR (Supply Chain Operation Reference model), TeleManagement Forum’s eTOM framework and the Value Chain Group’s VRM (Value Reference Model). Business Process Frameworks correspond to Business Scenario Group, Business Scenario and Business Process levels within our abstraction levels. 3.2. Process information in models In this section, we give an overview on the different information artifacts depicted in Figure 2 from a process-centric perspective. The process flow could be seen as the core of a process representation and means the business logical sequence of activities and their dependencies from end to end. As processes essentially are 5 http://www.bptrends.com/publicationfiles/spotlight_052008.pdf 686 transformations that manipulate objects (e.g. create, change or delete) it is relevant for the process to capture information on these and the states they take on during the transformation. From a systems perspective objects might form the source for system data. Technology can be seen as an enabler for certain steps in the process in terms of persistency and efficiency. Also, in a tight connection to the questions on objects and data are the media used in a process. This is especially interesting since often a medium forms a process differentiating characteristic. A process could be quite different, depending on the medium used, e.g. providing the customer of a telecommunication service with either an electronic or paper bill. To the collection of objects, technology and media we refer to as resources. A similar grouping under the label of stakeholders could be done for organizational units, roles and process owners. Given the end-to-end process perspective described in the first chapter, it is important to stress that processes run across one or more organizational units within a functional or divisional hierarchy. We define a role as task and responsibility bundle which is clearly distinguished from the person that is performing the role. It can be held by different persons and one person can hold several roles. Talking about roles and processes allows to easily talk about the tasks that should belong together or should be separated from a process perspective before mapping them to the organizational structure. The process owner as an accountable manager for the process end-to-end execution can be seen as a special role in the context of processes. Resources Stakeholders Purpose & Goal Strategy Why is the process performed? What principles govern the processes execution? Objects Key Performance Indicators (KPIs) Which measures indicate process performance? Media Roles Process Technology Which objects are used, modified, and produced? By which media do processes interact? Process Owner Who is responsible for the process? Which objects are used, modified, and produced? Which roles need to contribute to process execution? Organizational Units Process Flow Business Rules Compliance Which processes precede and follow? Which rules govern the business? Which tasks are needed to ensure compliance? Which organizational units contribute to the process execution? Figure 2: Process information in models Compliance is of high importance to nowadays businesses. These regulations especially impact processes as specific tasks in processes are required in order to fulfill regulatory requirements. Thus, in process design it is important to capture and explicitly mark these tasks. The process goal is the ultimate reason for the process existence and the purpose it serves. When formulating a process goal it is useful to already think about quantifiable results. The way to do this is to define appropriate key performance indicators along e.g. the dimensions time, cost or quality that measure the process and then determine corresponding values. A goal makes explicit where to go, a strategy shapes the way reaching a goal i.e. it channels efforts towards a goal. Business policies and business rules exist to control, guide and shape strategies. They define what can be done and what must not be done. For example, a decision rule for a specific business situation states which alternative should be chosen according to predefined decision criteria. A prioritizing rule applies when reserving resources. Business Policies differ from business rules in that they are less formally-structured [11]. Business rules are in practice not necessarily stated explicitly, but likely 687 incorporated into the process design [7]. The information associated to processes described in this chapter could be thought of as the answers to the questions illustrated in Figure 2. We can think of the process-centric knowledge depicted in Figure 2 as being present on each layer of the pyramid from Figure 1 in smaller or greater detail. Some parts of this knowledge tend to grow stronger as we move down the pyramid, e.g. process flow. Of course, high level knowledge such as strategic goals and core strategy plans do not vanish as we reach a level of higher detail. They get refined and superimposed by a more concrete view. Strategic goals grow to measurable and timed operational goals, strategic directions to detailed plans, etc. Viewing the pyramid from a bird's eye view gives the full perspective of a process in all its complexity. 4. Process-oriented enterprise ontology framework In section 3 we gave two viewpoints on process-oriented enterprise knowledge. Much of this knowledge can be captured with the help of modeling approaches such as ARIS [2] using Value Chain Diagrams (VCD), Event-driven Process Chain (EPC), as well as standard office software. These methods fail however, to capture the information’s fit in the abstraction hierarchy (see Figure 1) as well as to describe their interrelation in a formal way. There is no way to retrieve any knowledge from classical enterprise modeling, which is not explicitly stated. Therefore, we propose an integrated model which allows for a machine-accessible description of enterprise knowledge using an ontology framework6 (see Figure 3). In the following we describe the main components. Motivational Ontology layer Process-oriented Organizational Ontology layer Business Motivation Ontology Business Strategy Ontology Business Goal Ontology Business Metric Ontology Influencer Ontology Business Function Ontology Organizational Structure Ontology Business Role Ontology Organizational Unit Ontology Business Process Ontology Industry specific and domain layer Business Policy & Rule Ontology Business Resource Ontology imports YATOSP Use case ontologies Use case ontologies Use case ontologies Use case ontologies Figure 3: Ontology framework Business Motivation Ontology: This acts as an umbrella ontology to capture the concepts from the uppermost level in the hierarchy given by Figure 1. There are two fundamental questions, we believe are to be captured separately from the perspectives ‘what to reach’ and ‘how to reach it’. First, what is needed to achieve what the business wants to achieve? And second, why does each element of a company’s business plan exist? [11]. Since business modeling in the end is about cognition and action in order to create value, we establish the concept of an actor at the topmost 6 The ontologies can be found at http://www.ip-super.org/ontologies 688 level of the motivation ontology. Actors are the source of all business artifacts captured in the ontologies which import the business motivation ontology. For example, the motivation for setting up a goal is not there for itself but by the cognition of an actor. The sub-ontologies are as follows: Business Goal Ontology (BGO): Goals may explain why the processes exist in the organization; examples include customer satisfaction, growth, etc. BGO models a hierarchy of business goals and provides a set of relations between them to enable goal-based reasoning [7]. We distinguish between a strategic goal, which tend to be long term and defined qualitatively rather than quantitatively, and an operational goal which is a step along the way (a milestone) towards a strategic goal. Goals can conflict with each other (if they cannot be satisfied simultaneously) and can positively or negatively influence other goals. There can be different levels of influence between goals. Business Strategy Ontology: We think of a strategy as a plan to achieve a goal. Thus, a strategy channels effort towards a goal [11]. As for the goals set up by the company for achievement the plans how to achieve goals can be refined into sub-plans. A high level strategy usually channels effort towards a high level, most likely strategic (i.e. qualitative) goal and a more detailed plan channels effort towards an operational goal. This gives a coupling between strategy and goals by a means-end relationship, although is not necessarily 1:1 nor does it always connect strategies and goals on equal levels in a decomposition tree. Influencer Ontology: Following [11], we see an influencer as something that can cause changes that affect the enterprise in the employment of its means or achievement of its ends. Influencers may be internal or external. For example, external influencers could be a customer or a competitor, internal influencers could be habits or management prerogatives. Actions by market rivals will most likely have some sort of impact on an enterprise. An influence itself nevertheless, and therefore the change caused by an influencer, is neutral. Assessment is needed to judge how an enterprise reacts to change caused by influencers. Assessment would be an application of the presented ontology stack. The bases for judgments are metrics. Business Metric Ontology: This ontology models business metrics, in particular Key Performance Indicators (KPIs) as key metrics for getting information on the performance of a company. Metrics are assigned to goals (in order to monitor the achievement of goals) and to influencers (with the purpose to evaluate their impact on the organization). Business metrics (similar to goals) can be defined on multiple levels: strategic, operational and process level. Metrics assigned to goals are modeled in a hierarchical way, coupled with the goal hierarchy. Process-oriented Organizational Ontology: It aims at describing the environment in which process is carried out from the organization’s perspective. Therefore following [6], the processoriented organizational ontology should provide a basic vocabulary and structure for describing organizations, description of artifacts, define common types of divisions, roles, business resources, business policies and business functions that are utilized or involved in the process. The organizational ontologies provide a high level view of the organization and process-related space. Since this space is quite complex the organizational ontologies layer has been further logically divided into sub-ontologies, as depicted in the Figure 3, each of them describes different part of the process space. The sub-ontologies are as follows: Organizational Structure Ontology (OSO) (cf. top right of Figure 3) describes organizational structure (hierarchy) of a company in a domain independent way by providing the main structure and relations between them. Organizational Unit Ontology (OUO) provides specification of typical 689 units that may be found in a company. Along with Business Roles and Business Resources Ontologies, it provides extensions to OSO which is shown by the imports arrow in Figure 3. Business Role Ontology (BROnt) defines common roles that are found in an organization e.g. Designer, Process Modeler, IT Expert, CEO etc. Business Resource Ontology (BRO) describes applications and resources that should be spent when carrying out certain processes or that may be results of certain task in a process. Business Function Ontology (BFO) (cf. top right of Figure 3) provides hierarchy of different functions that may be carried out within the company. It is supposed to enable vendor and domain independent classification of company processes. Business Policy and Rule Ontology (BPRO) (cf. top right of Figure 3) allows modeling constraints/guidelines that govern the behavior of the process. It is designed in a generic way to support modeling constraints from a variety of internal and external regulations. Business Process Ontology (BPO): For describing the behavioral (dynamic) perspective of a process model we use a process algebra, the π-calculus. By using the π-calculus for representing the process behavior, we are also able to integrate existing tools and techniques for verification and simulation of processes in our framework. The dynamic perspective of a process model stands for process control- and dataflow, and we model it using the ontologized π-calculus. For more details on this ontology, we refer the reader to [8]. Note that our framework maps to the process-centric knowledge depicted in Figure 2 and hence correspond to the layers in the pyramid from Figure 1, as motivated in the last section. In order to demonstrate the applicability of our process-oriented enterprise ontology framework, within the SUPER7 project, we have applied our framework in the telecommunication domain. The bottom left part of Figure 3 shows the Industry specific and domain layer which imports (is specialization of) the framework. In our case, this layer consists of the telco industry-specific YATOSP [1] ontology and a set of domain-specific use case ontologies, used in describing various telco business scenarios. YATOSP ontology is based on the aforementioned eTOM business process framework. 5. Applications of the ontology framework Formal representation of process-oriented enterprise knowledge provides many advantages. We illustrate the benefits of using our ontology framework for business modeling in the following application scenarios. 5.1. Evaluation of Motivation Models Use case 1 – Check for completeness. When checking for completeness of the motivation model we are interested in whether necessary links between the modeling elements are actually specified. For example, a strategy brings an enterprise towards a goal and a goal is set up by an actor, e.g. an organizational unit. Therefore, for example, we check if for any goal g1 an actor is given as a stakeholder and a strategy is given which supports the goal. Use case 2 – Checking for conflicts and redundancy. Goal models are an important feature of our motivation modeling. Using properties and relations of the goal ontology we can specify the priority of goals g1 and g2 as well as the degree in which goal g1 supports or hinders goal g2. We say two goals are in conflict with one another if g1 is of lower priority than g2 and g1 hinders g2. A goal g1 subsumes another goal g2, if g2 is achieved when g1 is achieved. If both g1 and g2 are subgoals of a goal g, then g2 is redundant [7]. 7 http://www.ip-super.org 690 Use case 3 – Propagation of goal contribution. When analyzing motivation models, we might be interested in how entities in the model affect each other. We illustrate this on the example of business goal modeling. Each goal has a priority attached, reflecting its importance for the business. There can be multiple levels of priorities. Goals can be decomposed into subgoals, where priority tends to decrease within the lower levels of a goal tree. Besides decomposition we can state if either a goal g1 supports or hinders a goal g2, i.e. if it has a positive or negative influence. The degree of influence is quantified in percentages. Consider that we change the degree of influence of a goal g1 to another goal or its priority level. This will not only influence its direct neighboring goals, but also other goals in the model. We would like to see how this change propagates further in the goal tree and influences goal g2. By taking into account and accumulating the influence and priority levels of the goals which connect g1 with g2 in the goal tree, we are able to recompute the influence of g1 on g2. This is very convenient for what-if scenario analysis where we can see how a change in one part of the model influences the other. 5.2. Evaluation of Business Process Models Use case 1 – Check for consistency across models. The diverse nature of process information (see Figure 2) can result in inconsistency as this information is captured across various parts of the enterprise model. The ontology framework (see Figure 3) not only links different models by providing a common, structured and formalized vocabulary but also helps to detect inconsistency arising from information resulting by incorrect model usage. For example, the definition of relations such as assigning a business function to an organizational unit, roles that an employee is allowed to play, resources required for carrying out a business activity, involves concepts defined in multiple ontologies within the framework. Consistency check ensures that a business process model is annotated consistently with respect to the constraints modeled within the ontology framework Use case 2 – Behavioral checks on process models. Behavioral checks, such as ensuring certain order of execution between activities; can also be performed on process models as BPO is based on π-calculus process algebra. For example, the activity Quality check is to be performed only after the activity Produce product and before the activity Product delivery. Use case 3 – Checks on process model based on its context. Explicit capturing of contextual information about a process (business function, goal, resources used, etc.) can be used to recommend relevant business policies to be enforced on a given process. BPRO is used to capture contextual information related to policies like policy scope, goal, its applicability criteria, etc. By matching the contextual annotations of policies to the ones of processes, we can retrieve all relevant policies for enforcement. Business policies usually contain one or more business and/or information system rules which implement them. These rules can then be checked against the matching processes in order to ensure the compliance of processes to internal and external regulations. 5.3. Navigation through the process levels By creating a common model which integrates all relevant aspects of process representation (cf. Figure 3), we are able to browse through different levels of process hierarchy. This enables the top-down linkage and bottom-up traceability between business motivation concepts on the one and detailed process models on the other side. In order to illustrate the benefits which such an integrated view provides, we list some example queries that can be answered using our ontology framework: • • Query 1: Show me all processes that support a specific goal Query 2: Show me all metrics associated to a process/goal 691 • • • • • • Query 3: Filter goals on the basis of a given deadline and/or priority Query 4: Which organizational units are involved in a specific process? Query 5: Which processes use a specific resource? Query 6: Which processes is a specific business policy enforced on? Query 7: What processes are currently performed in a specific business function? Query 8: What influencers affect the employment of a specific strategy? Ability to pose such queries creates better enterprise transparency and enables improved change management when regulations or market situation alter. 6. Conclusions & Outlook In this paper, we have presented a process-oriented approach to business modeling supported by semantic technologies. First, we reduced the complexity of process modeling by proposing process abstraction layers and identifying the relevant aspects of process description. Further, we presented a process-oriented enterprise ontology framework which we validated in the telecommunication domain. The application scenarios of the framework described in section 5 show, how introducing formal semantics enables us to perform various types of evaluation on each level of process modeling in order to detect errors/inconsistencies early in the design. In section 5, we also demonstrate how an integrated process-centric view on an organization allows us to navigate its process space, improving enterprise transparency and change management. As our next step, we plan to implement the presented application scenarios in the SAP Research Maestro process modeling tool. In the long term, we aim to evaluate the benefits of our approach within a real-world industrial setting. 7. References [1] SUPER Project, YATOSP framework (draft). Deliverable 8.2., 2007. [2] DAVIS, R. and BRABÄNDER, E., ARIS Design Platform. Springer, Heidelberg, 2007. [3] GOULD, K. and DICKEN, C., Process as an asset. BPTrends, 2008. [4] HAMMER, M. and CHAMPY, C., Reengineering the Corporation: A Manifesto for Business Revolution. Harper Business, New York, 1993. [5] HEPP, M., LEYMANN, F., DOMINGUE, J., Wahler, A. and Fensel, D., Semantic business process management: A vision towards using semantic web services for business process management. In Proceedings of the ICEBE, 2005. [6] HEPP, M. and ROMAN, D., An ontology framework for semantic business process management. In Proceedings of the 8th international Conference Wirtschaftsinformatik, 2007. [7] MARKOVIC, I. and KOWALKIEWICZ, M., Linking business goals to process models in semantic business process modeling. In Proceedings of the 12th IEEE EDOC Conference, 2008. [8] MARKOVIC, I. and COSTA PEREIRA, A., Towards a formal framework for reuse in business process modeling. In semantics4ws: Proceedings of the 2nd International Workshop on Advances in Semantics for Web services, 2007. [9] TER HOFSTEDE, A.H., DUMAS, M. and VAN DER AALST, W.M., Process-Aware Information Systems: Bridging People and Software Through Process Technology. Wiley-Interscience, 2005. [10] WESKE, M., Business Process Management: Concepts, Languages, Architectures. Springer-Verlag Berlin Heidelberg, 2007. [11] OMG. Business Motivation Model, http://www.omg.org/docs/dtc/06-08-03.pdf, 2006. [12] Fox M. The TOVE Project: A common-sense model of the enterprise. In: Proceedings of the 5th IEA/AIE Conference, LNAI 604, Springer-Verlag, Berlin, pp 25-34, 1992. [13] Uschold M, King M, Moralee S, Zorgios Y. The Enterprise Ontology. The Knowledge Engineer Review 13(1). 692 IT-INFRASTRUKTUR FÜR BUSINESS SERVICES Aus der Verknüpfung von Geschäftsprozessen und den sie unterstützenden ITServices im Rahmen des Business Service Managements entstehen neue Anforderungen an die IT-Infrastruktur. Für ihre Erfüllung können insbesondere innovative Ansätze des Infrastrukturmanagements genutzt werden. Spezielle Fragen in diesem Kontext sind u.a., wie Anforderungen an die Verfügbarkeit von Geschäftsprozessen auf die Ebene der IT-Services kaskadiert werden können, und, ob Teile einer IT-Infrastruktur branchenspezifi sch zu gestalten sind. Natürlich müssen außerdem – wie bei allen Strukturüberlegungen im IT-Bereich – die Altsysteme berücksichtigt werden. Neue Aspekte ergeben sich auch für die IT-Governance sowie für die Wirtschaftlichkeitsbewertung von ITServices und der IT-Infrastruktur. Leitungsgremium: Stefan Eicker, Universität Duisburg-Essen (Federführender) Torsten Eymann, Universität Bayreuth Stefan Koch, Wirtschaftsuniversität Wien Erich Schikuta, Universität Wien Programmkomitee: Martin Bichler, Technische Universität München Jens Borchers, SCHUFA Holding AG Alfred Geiger, T-Systems Solutions for Research GmbH, Stuttgart Wolfgang Gentzsch, Deutsche D-Grid Initiative, Berlin Reinhard Jung, Universität Duisburg-Essen Frank Leymann, Universität Stuttgart Günter Müller, Albert-Ludwigs-Universität Freiburg Heinz Stockinger, Schweizerisches Institut für Bioinformatik, Lausanne Susanne Strahringer, Technische Universität Dresden ZIELORIENTIERTE DATENMODELLIERUNG FÜR ITILBASIERTE INTER-ORGANISATIONALE CONFIGURATION MANAGEMENT DATABASES Wolfgang Hommel1, Silvia Knittl2 Kurzfassung Die essentiellste Aufgabe des IT-Service-Managements (ITSM) ist die Ausrichtung der IT an Kundenbedürfnissen. Zunehmende Dynamik, Infrastrukturkomplexität und Regularien, beispielsweise Compliance-Richtlinien, erforden eine Werkzeugunterstützung des ITSM. Hierfür hat sich das Konzept einer ITIL-basierenden Configuration Management Database (CMDB) als Informationsnexus durchgesetzt. Wir diskutieren den Einsatz einer CMDB im Zusammenspiel mit inter-organisationalen Diensten; das zugrundeliegende Werkzeug bezeichnen wir als ioCMDB. Wir analysieren Anforderungen, die sich bei organisationsübergreifenden Anwendungsfällen an das verwendete Datenmodell ergeben und stellen eine Methodik zur zielorientierten Datenmodellierung vor. Darauf aufbauend stellen wir technische Komponenten zur Realisierung der Datensynchronisation zwischen organisationsinternen CMDBs und einer ioCMDB vor und diskutieren die resultierenden Mehrwerte. 1. Einleitung Durch die kontinuierlich steigende Komplexität von Informations- und Kommunikationstechnologie in Unternehmen und die immer stärkere Abhängigkeit wichtiger Geschäftsprozesse von der IT bekommen Governance, Risk-Management und Compliance (GRC) eine immer wichtigere Bedeutung. Durch das Business Alignment der IT muss die Ausrichtung der IT-Strategie an die Geschäftsstrategie und damit auch an GRC-Anforderungen gewährleistet werden. IT-Service-Management (ITSM) Rahmenwerke, wie z.B. die IT Infrastructure Library (ITIL) [7], definieren ITSM-Prozesse, um diese Zielsetzung zu unterstützen. Ein unabhängig von der Größe des Unternehmens essentieller Managementprozess ist hierbei das sogenannte Service Asset and Configuration Management (SACM). Das primäre Ziel von SACM ist es, die Geschäfts- und Kundenanforderungen bzgl. des Controllings zu unterstützen. Indem es akkurate Konfigurationsinformationen bereitstellt, dient es weiterhin allen anderen ITSM-Prozessen, z.B. dem Incident Management und dem Change Management. Für diese Aufgaben sieht das SACM als Werkzeug ein sogenanntes Configuration Management System (CMS) vor. Dieses beinhaltet als wesentliche 1 2 Leibniz-Rechenzentrum, Garching b.München, Germany Technische Universität München, Germany 695 Komponente eine integrierte Configuration Management Database (CMDB). Mit dieser werden Konfigurationselemente (Configuration Items, (CI)) und deren gegenseitige Beziehungen (Relationen) abgebildet. CIs umfassen hierbei Servicekomponenten, Finanzgegenstände (Assets), Release-Pläne, Personen, Server, Anwendungen, Daten usw. Der Trend zu Outsourcing bzw. kooperativer Diensterbringung, z.B. im Rahmen von Grid- und Cloud-Computing, stellt auch das GRC-Management vor neue Herausforderungen. Bei der betrieblichen Umsetzung ist eine geeignete Werkzeugunterstützung der organisationsübergreifenden ITSM-Prozesse erforderlich. Diese organisationsübergreifenden Aspekte wurden jedoch bisher von ITSM-Rahmenwerken oder auch von Werkzeugherstellern nicht oder nur unzureichend berücksichtigt. Anhand eines Szenarios werden wir im Folgenden motivieren, dass sich für organisationsübergreifend erbrachte IT-Dienste eine CMDB-basierte Werkzeug- und Prozessunterstützung eignet und kostengünstig realisieren lässt. Diesen Ansatz bezeichnen wir als interorganisationale CMDB (ioCMDB). In Abschnitt 2 zeigen wir, welche Auswirkungen der Einsatz einer ioCMDB auf die Datenmodellierung und das Zusammenspiel mit bestehenden CMDBs hat. Daraus abgeleitete, zur Realisierung notwendige technische Komponenten stellen wir in Abschnitt 2.4 vor; eine Zusammenfassung der bisherigen Ergebnisse und ein Ausblick auf unser weiteres Vorgehen schließen den Artikel ab. 1.1. Kooperativ erbrachte Dienste in multi-domain Umgebungen In diesem Abschnitt stellen wir exemplarisch ein Szenario für Dienste vor, die von mehreren Organisationen kooperativ erbracht werden, das aus dem Umfeld des Grid- und Cloud-Computings motiviert wurde. Abbildung 1 zeigt ein Schichtenmodell, dessen unterste Ebene die involvierten Organisationen samt ihren Ressourcen und Subservices darstellt. Die Benutzer, die in ihrer Gesamtheit als Community bezeichnet werden, nutzen jedoch nicht die einzelnen Ressourcen, sondern höherwertige inter-organisationale Dienste, die auf Basis einer Kooperation angeboten und z.B. durch Web-Service-Orchestrierung implementiert werden. Die gestrichelten Linien stellen beispielhaft die Abhängigkeit dieser Dienste von den jeweils lokal bereit gestellten Ressourcen dar, die z.B. durch den Einsatz web-basierter Frontends oder dedizierter Middleware zwar für den Benutzer, nicht aber für das integrierte Service Management transparent sind. Abbildung 1 Zusammenhang zwischen inter- und intra-organisationalen Diensten 696 Im Folgenden setzen wir die technischen Herausforderungen bei der transparenten Nutzung von inter-organisationalen Diensten vereinfachend als gelöst voraus (vgl. [3]) und fokusieren auf das ITSM solcher Dienste. So sind etwa im operativen Betrieb im Falle von Störungen Informationen über die gegenseitigen Subservice- und Ressourcenabhängigkeiten notwendig, damit Störungsmeldungen schnellstmöglich an den richtigen Ansprechpartner beim jeweiligen Betreiber weitergeleitet werden können. Für die Planung von Dienstzuteilungen ist es ferner von entscheidendem Vorteil, wenn auf Organisationsebene autonom geplante Änderungen oder Wartungsarbeiten, welche die inter-organisationalen Dienste beeinträchtigen können, bekannt sind und kommuniziert werden können. In der Praxis gibt es allerdings bisher keine Werkzeugunterstützung für ein solches interorganisationales ITSM (ioITSM). Daraus resultieren in der Praxis oft wesentliche Nachteile, z.B.: - Das Beheben von Störungen verzögert sich, da das inter-organisationale IncidentManagement (ioIncident-Management) erst die betroffene Organisation ermitteln muss. - Das Planen von Änderungen auf inter-organisationaler Dienstebene ist komplex, da eine aufwendige manuelle Koordination aller beteiligten Diensterbringer notwendig ist. - Autonom auf Organisationsebene durchgeführte Änderungen können bei mangelnder Berücksichtigung von Abhängigkeiten inter-organisationale Dienste massiv beeinträchtigen. Im folgenden Abschnitt stellen wir als Lösung dieser Herausforderungen das Konzept einer ioCMDB vor, deren Datenmodellierung den Schwerpunkt dieses Artikels bildet. 1.2. Inter-organisationale CMDB Abbildung 2 zeigt die Zusammenhänge des Managements von intra- und inter-organisationalen Diensten bzw. Ressourcen. Jede Organisation verwaltet ihre eigenen IT-Ressourcen autonom, wofür in den Organisationen i.A. schon ITSM-Werkzeuge im Einsatz sind. Die Organisationen verwalten auch ihre IT-Services autonom, wofür CMDBs eingesetzt werden können. Zur Unterstützung des ioITSM wird eine ioCMDB eingesetzt, in die, wie im nachfolgenden Abschnitt erläutert wird, auch relevante Informationen aus den jeweiligen CMDBs der Organisationen eingespeist werden. Abbildung 2 Zusammenspiel von intra- und inter-organisationalem IT Service Management 697 2. Datenmodellierung und Zusammenspiel mit lokalen CMDBs Bereits bei organisationsinternen CMDB-Implementierungen ist die konkrete Modellierung der CIs und ihrer typisierten Beziehungen keine triviale Aufgabe. Meist wird ein objektorientierter Modellierungsansatz gewählt, der Klassen abzubildender realer Objekte und deren beschreibende Eigenschaften festlegt (vgl. [1], [8]). Dieser wird vorrangig aus Performanzgründen oft auf ein relationales Datenbankschema abgebildet. In der Praxis ist dabei die Entwicklung zu beobachten, dass ebenfalls aus Gründen der Geschwindigkeit analog zu Data Warehousing Verfahren zunehmend denormalisierte Schemata eingesetzt werden [9]. Für die Entwicklung einer ioCMDB ist jedoch insbesondere zu berücksichtigen, dass die bereits vorhandenen CMDBs zwar über standardisierte Schnittstellen zum Zugriff auf die Daten verfügen mögen, es aber kein einheitliches, standardisiertes Datenmodell gibt. Selbst falls entsprechende Standards verabschiedet werden und sich in der Praxis langfristig durchsetzen sollten, müsste jede organisationsübergreifende Lösung flexibel genug sein, um mit bereits vorhandenen, proprietären lokalen Datenmodellen umgehen zu können, um eine Integration zu ermöglichen. In diesem Abschnitt betrachten wir vier zusammenhängende Aspekte: Zunächst erläutern wir szenarienunabhängig, welche Daten lokaler CMDBs für den Aufbau und Betrieb einer ioCMDB relevant sind. Dann diskutieren wir eine Herangehensweise für das Schema-Design, also die für jedes Szenario spezifische Modellierung der ioCMDB-Daten. Darauf aufbauend zeigen wir den Zusammenhang zwischen lokalen CMDB- und ioCMDB-Daten und schlagen entsprechende Synchronisationsprozesse vor, für die wir eine Komponentenarchitektur zur technischen Umsetzung vorstellen. 2.1. Übernahme relevanter CMDB-Einträge Prinzipiell könnte der Datenbestand einer ioCMDB zur Unterstützung organisationsübergreifender ITSM-Prozesse mit genau allen dafür nötigen Informationen von Grund auf neu aufgebaut werden. Diese Methodik würde zwar selbst dann noch die Kompatibilität sicherstellen, wenn mindestens eine der beteiligten Organisationen keine lokale CMDB betreibt. Allerdings wäre es in der Praxis jedoch aus offensichtlichen Gründen ineffizient, bereits vorhandene, direkt zugängliche Informationen nicht zu nutzen und dafür in einem separaten System redundant zu akquirieren und zu pflegen. Zunächst ohne Berücksichtigung der technischen Realisierung und der vom Datenmodell her möglichen syntaktischen Inkompatibilitäten muss deshalb analysiert werden, welche in einer lokalen CMDB vorhandenen Daten in eine ioCMDB übernommen werden sollen. Ausschlaggebend sind hierfür einerseits die Relevanz der Daten für die ioITSM-Prozesse und andererseits aus dem GRCManagement resultierende Sicherheitsaspekte, z.B. der Schutz vor unbefugten Zugriffen durch die anderen Organisationen. Einen Lösungsansatz für den zweiten Aspekt haben wir bereits in einer früheren Arbeit vorgestellt und betrachten den Zugriffsschutz in diesem Artikel als gelöst [5]. Aufgrund der Beschränkung auf relevante Daten und wegen möglicherweise aus Sicherheitsgründen nicht zugänglichen Informationen ist jedoch auf das Problem von Dateninkonsistenzen durch die nur partielle Datenübernahme zu achten, d.h. dass einzelne Attribute von Objekten oder ganze Objekte, auf die sich Relationen zwischen CIs beziehen, fehlen können. Die Vollständigkeit der in einer ioCMDB-Instanz vorliegenden Daten bezüglich der durch ioITSM-Prozesse vorgegebenen Use Cases muss deshalb unbedingt durch einen geeigneten Qualitätsmanagementprozess nachhaltig sichergestellt werden und kann durch Automatismen nur partiell IT-unterstützt werden. 698 Die Bestimmung der von einer CMDB in eine ioCMDB zu übernehmenden Daten ist szenarienspezifisch, da die CIs und deren Attribute sowie die verwendeten Relationen zwangsweise dienst-, organisations- und kooperationsspezifisch sind. Wir erläutern deshalb im Folgenden anhand einiger ausgewählter Beispiele und bewusst unvollständig, welche häufig gepflegten CIs, Attribute und Relationen zur Kandidatenmenge für die Aufnahme ins ioCMDB-Datenmodell gehören: - Relevante CIs: o Incident Records ausgewählter Zeiträume, wie etwa den „letzten X Wochen“. Diese Daten werden vom ioIncident-Management zur Bearbeitung von Anfragen zu aktuellen und jüngst zurückliegenden Vorfällen benötigt, sollen in der ioCMDB jedoch u.a. zur Minimierung von Betriebskosten nicht dauerhaft archiviert werden. o Ausgewählte Benutzerobjekte, insbesondere zur organisationsübergreifenden Bereitstellung von Kontaktdaten von Personen, die mit den ioITSM-Prozessen betraut sind oder als lokale ITSM- oder Serviceansprechpartner fungieren. o Change Records, speziell auch aus dem lokalen Forward Schedule of Changes (FSC nach ITIL), sofern die Veränderungen organisationsübergreifend relevante Dienste betreffen und beispielsweise zur Planung von Wartungszeiträumen relevant sind. o Alle Dienst-/Service- und Hardware-/Server-CIs, die organisationsübergreifend relevante Dienste und Subservices betreffen; hierbei sind neben statischen insbesondere auch dynamische Attribute relevant, die z.B. von Monitoring-Werkzeugen aktualisiert werden und z.B. über Verfügbarkeit und Auslastung informieren. o Dienstleistungsvereinbarungen (Service Level Agreements (SLAs)), soweit diese organisationsübergreifend relevante Dienste betreffen und z.B. zur Priorisierung von Incidents im Rahmen des ioIncident-Managements ausgewertet werden müssen. - Relevante Attribute: o Lokale Ansprechpartner bei Service- und Hardware-CIs, sofern diese auch im Rahmen der ioITSM-Prozesse kontaktiert werden sollen. o Objekt-Identifikatoren zur eindeutigen Zuordung von korrespondierenden Objekten in der lokalen CMDB und der ioCMDB (sog. Object Association). o Zeitstempel der letzten Änderung zur technischen Unterstützung des unten erläuterten technischen Synchronisationsprozesses. o Änderungshistorie, die analog zu den o.g. Incident Records auf einen Erfassungszeitraum, der nur die jüngere Vergangenheit betrifft, beschränkt sein sollte. - Relevante Beziehungen zwischen CIs: o Angaben zur Diensthierarchie (Services und deren Subservices bzw. Ressourcen) sowie ggf. weitere relevante Abhängigkeiten zwischen Diensten, um kausale Zusammenhänge z.B. bei Dienstausfällen identifizieren und kommunizieren zu können. o Angaben zur Dienstlokalisierung, z.B. „Dienst A läuft aktuell auf Maschine X“, die insbesondere zur Fehlerdiagnose beim Einsatz virtueller Maschinen, die dynamisch zwischen verschiedenen Hosts migriert werden können, relevant sind. Wie bei lokalen CMDBs gilt bei der Umsetzung die Daumenregel, dass eine kleine Menge an gut gepflegten Daten einer möglichst umfassenden Aggregation der vorhandenen Daten im Hinblick auf Nachhaltigkeit und Effizienz der Lösung als auch auf die Betriebskosten vorzuziehen ist. 2.2. Modellierung der ioCMDB CIs und Relationen Durch die fehlende Datenmodell-Standardisierung bei den organisationsintern eingesetzten CMDBs kommt es bei einer organisationsübergreifenden Betrachtung in der Praxis zu unterschiedlichen CMDB-Schemata, die bezüglich der ausgewählten CIs, Attribute und Relationen zu einem 699 gemeinsamen ioCMDB-Schema konsolidiert werden müssen. Die dabei als Basis notwendigen Vereinheitlichungen, z.B. bei der Wahl von Attributnamen, die Synonyme und Homonyme eliminieren müssen, sowie die syntaktische Umformung, z.B. von Datumsformaten oder Telefonnummern, werden von einer Vielzahl etablierter Methoden der Datenbankintegration unterstützt und deshalb hier nicht näher betrachtet. Wir fokussieren vielmehr auf die zur Sicherstellung der Interoperabilität notwendigen Schritte und insbesondere zusätzlichen Datenfelder, die sich nur in der ioCMDB, nicht jedoch in den lokalen CMDBs finden. Das Zusammenlegen der Daten aus einer potentiell beliebig großen Menge an Quellen muss durch eine Anreicherung des Datenmodells unterstützt werden, z.B.: - Zur Vermeidung von Kollisionen im Objektnamensraum (engl.: namespace clashes) muss die Organisationszugehörigkeit, beispielsweise durch ein eindeutiges Präfix pro beteiligter Einrichtung, explizit erfasst werden. Dies betrifft sowohl systeminterne Identifikatoren, z.B. bei zwei CMDBs, die zwei verschiedene Entitäten über denselben Attributwert „id=12345“ identifizieren, als auch Attributwerte, z.B. bei Ortsangaben wie „Gebäude B, Raum 12“. Zur Umsetzung haben sich URN-basierte Ansätze als geeignet erwiesen, z.B. „id=urn:iocmdb:orgA.example.com:12345“. - Maßeinheiten sollten explizit angegeben werden, beispielsweise falls Strafzahlungen für SLA-Verletzungen in einer CMDB in Dollar und in einer anderen in Euro angegeben werden. Dadurch können Ungenauigkeiten, die sich durch ein wiederholtes Umwandeln in bzw. von einer einheitlichen Maßeinheit ergeben können, vermieden werden; diese sollten bei Bedarf von einer graphischen Managementoberfläche durchgeführt werden. Darüber hinaus müssen die ioITSM-Prozesse gezielt mit Informationen unterstützt werden, die erst mit der Teilnahme an organisationsübergreifenden Szenarien bedeutsam werden und deshalb u.U. auch nicht implizit aus den Daten der lokalen CMDBs abgeleitet werden können: - Für die ioITSM-spezifische Kommunikation und Datenweitergabe sind Ansprechpartner zu benennen, die ggf. von den für die organisationsinternen ITSM-Prozesse definierten Personen abweichen. - Die von ioITSM-spezifischen Rollen wie dem inter-organisationalen Service Desk erfassten Daten müssen geeignet auf ioCMDB-CIs abgebildet werden können, z.B. auf ioIncident Records und ioChange Requests. Die Modellierung der Attribute dieser CIs orientiert sich an ihren organisationsinternen Entsprechungen. - Alle in der ioCMDB gespeicherten Objekte benötigen Metadaten, die von denen ihrer Ursprungsobjekte separiert sind, beispielsweise den Identifikator des letzten Bearbeiters und den Zeitstempel der letzten Änderung. - Relationen zwischen den CIs der ioCMDB können organisationsübergreifend sein, d.h. Beziehungen über die Grenzen einer Einrichtung hinaus können in der ioCMDB hinterlegt werden, wohingegen das notwendige Zielobjekt in einer lokalen CMDB fehlen würde. Bereits hieraus ist ersichtlich, dass die Inbetriebnahme und Pflege einer ioCMDB nicht nur aus dem Zusammenschalten existierender Datenbanken besteht, sondern auch einen initialen und dauerhaften Verwaltungsaufwand für die Pflege dieser zusätzlichen Informationen bedeutet. 2.3. Prozesse zur Datensynchronisation zwischen ioCMDB und lokalen CMDBs Die Daten in der ioCMDB müssen immer möglichst aktuell gehalten werden, um beispielsweise Fehldiagnosen im ioIncident-Management zu vermeiden, die durch veraltete Daten entstehen würden. Klassische Bulk-Import-Verfahren, die u.a. im Umfeld des Data Warehousing und z.T. im 700 Rahmen von Business Integration Prozessen eingesetzt werden und dort beispielsweise einmal pro Nacht den gesamten Datenbestand aus dem Quellsystem übernehmen, notwendige Transformationen vornehmen und ins Zielsystem einspeisen, reichen deshalb nicht aus. Nachfolgend skizzieren wir einerseits ein effizienteres Verfahren zum Datenabgleich und diskutieren andererseits die Frage, ob der Datenabgleich zwischen den CMDBs und der ioCMDB im jeweiligen Szenario unidirektional oder bidirektional gestaltet werden sollte; dies beeinflusst insbesondere die Implementierungskosten, wirkt sich im Betrieb aber z.B. auf die notwendigen Maßnahmen zur Sicherstellung einer hohen Datenqualität aus. Der klassische ETL-Ansatz (Extract, Transform, Load, siehe [6]) steht vor der Schwierigkeit, dass immer der gesamte Datenbestand des Quellsystems nach relevanten Datensätzen, beispielsweise Änderungen seit dem letzten Synchronisationslauf, durchsucht werden muss; durch eine starke Erhöhung der Datenabgleichsfrequenz, beispielsweise alle fünf Minuten, wird zwar die Aktualität der Daten im Zielsystem verbessert, aber das Quellsystem einer unnötig hohen Last ausgesetzt. Insbesondere ist das Zeitintervall, in dem Datenabgleiche erfolgen, fixiert und passt sich nicht dem charakteristischen Nutzungsverhalten (z.B. tagsüber viele Änderungen, nachts nur wenige) an. Auch bei internen Abrechnungsmodellen, in deren Accountingfunktionen die Anzahl ausgeführter Datenbankanfragen eingeht, würden sich die Kosten mit der Datenaktualität vervielfachen. Aus diesem Grund schlagen wir einen ereignisgesteuerten Synchronisationsmechnismus vor, der durch das Einfügen, Modifizieren bzw. Löschen ganzer Datensätze oder einzelner Attribute ausgelöst wird und die Änderung, sofern sie für das Zielsystem relevant ist, zeitnah an dieses weitergibt. Die technische Umsetzung kann z.B. mit Hilfe von sog. Triggern und Stored Procedures in relationalen und objektorientierten Datenbankmanagementsystemen erfolgen, deren Implementierungskosten sich im Allgemeinen nicht von externen, z.B. JDBC-basierten ETL-Lösungen unterscheiden und durch die unmittelbare Integration in das Datenbanksystem typischerweise eine höhere Performanz aufweisen. Die technische Schnittstelle zwischen der lokalen CMDB und der ioCMDB besteht somit zunächst aus einem Mechanismus, der die entsprechenden Ereignisse zur Verfügung stellt; darauf baut ein parametrisierbares Filtersystem auf, das für das Zielsystem irrelevante Ereignisse verwirft. Anschließend müssen die Daten bei den Ereignisarten Einfügen und Modifizieren in das vom Zielsystem benötigte Format gewandelt werden und der Datenbestand im Zielsystem entsprechend aktualisiert werden. Dabei können Ausnahmebehandlungen notwendig werden, beispielsweise falls ein zu modifizierendes Objekt im Zielsystem noch nicht exisiert und somit neu angelegt statt nur verändert werden muss. Bei der Implementierung sind weitere Fehlersituationen, z.B. die temporäre Nichtverfügbarkeit des Zielsystems, zu berücksichtigen. Die oben diskutierte Bereitstellung von Daten aus den lokalen CMDBs zur Nutzung durch ioCMDB-unterstützte Prozesse impliziert, dass der Abgleich zwischen CMDB und ioCMDB auf jeden Fall in dieser Datenflussrichtung realisiert werden sollte. Die Implementierung eines Datenrückflusses von der ioCMDB in die jeweilige lokale CMDB kann je nach Szenario durchaus mit Synergieeffekten verknüpft sein, die den entstehenden Zusatzaufwand rechtfertigen; im Folgenden werden einige Mehrwerte dieses Use Cases skizziert. Bei den Datenrückflüssen ist prinzipiell zwischen den Nutzdaten, z.B. modifizierten Attributen von ioCMDB-CIs, und den Metadaten zu unterscheiden; zum Umfang der Metadaten zählen wir hier über den Dublin Core Standard [4], der z.B. Zeitstempel und Identifikator des letzten Bearbeiters umfasst, hinausgehend insbesondere auch Protokolldaten. Informationen bezüglich Benutzeraktivi701 täten anderer Einrichtungen auf ioCMDB-Daten aus lokalen CMDBs können zur Optimierung des ioCMDB-Datenbestands ausgewertet werden. Solche Aktivitäten sind z.B. Schreifzugriffe, Einzel-, Such- oder Batchoperationen und deren Kontext, z.B. im Rahmen einer ioIncident-Bearbeitung,. Außerdem bildet diese Informationen auch die Grundlage für die Integration in Auditierungs- und Risk-Management-Prozesse, die die ioCMDB nicht nur als isoliertes System betrachten. Bei der Übernahme von Nutzdaten aus der ioCMDB in eine CMDB sind einerseits aktualisierte Attribute von denjenigen CIs zu berücksichtigen, die ursprünglich aus dieser CMDB übernommen wurden. Zum anderen können auch in der ioCMDB neu angelegte CIs relevant sein, beispielsweise ioIncident-Records, deren Impact-Analyse Auswirkungen auf CIs ermittelt hat, die genau einer der beteiligten Organisationen zugeordnet werden können. Die Übernahme dieser Daten hängt jedoch auch davon ab, ob und wie stark die bereits organisationsintern vorhandenen ITSM-Prozesse so angepasst werden können, dass sie auch vom ioCMDB-Datenbestand Gebrauch machen. Sofern die verwendeten ITSM-Werkzeuge direkt an diese zusätzliche Datenquelle angebunden werden können, sollte der Mehraufwand für eine redundante Datenspeicherung vermieden werden. In diesem Fall ist jedoch mindestens auf organisatorischer Ebene zu klären, wie die ggf. notwendige (Langzeit-) Archivierung des ioCMDB-Datenbestands gehandhabt wird, um den jeweils aktuellen ioCMDB-Datenbestand möglichst schlank halten zu können. 2.4. Technische Komponenten zur Implementierung der Datensynchronisation Abbildung 3 zeigt ein einfaches Beispiel der für die Umsetzung des oben beschriebenen Synchronisationsprozesses benötigten Systemkomponenten. Jede Organisation hat eine lokale CMDB. Diese kann gegebenenfalls aus mehreren einzelnen Datenbanken oder den Repositories der vorhandenen Managementwerkzeuge bestehen, die intern zu einer sog. CMDB-Federation (CMDBf), wie sie vom CMDBf-Komitee spezifiziert wurde, zusammengeführt werden [2]. Die Kommunikation zwischen ITSM-Werkzeugen und der CMDB erfolgt typischerweise über JDBC oder Web Services und ist verallgemeinernd als Enterprise Service Bus (ESB) dargestellt. Nachrichten über Änderungen am CMDB-Datenbestand werden ebenfalls über den ESB an die neue, nachfolgend spezifizierte Komponente, die wir als ioCMDB-Konnektor bezeichnen, übermittelt. Falls die CMDB keine geeigneten Triggermechanismen unterstützt, um jeweils nur die Änderungen am Datenbestand zu melden, muss dem ioCMDB-Konnektor ein Wrapper vorgeschaltet werden, der Änderungen am CMDB-Datenbestand regelmäßig z.B. anhand von Objektzeitstempeln ermittelt und als Events an den ioCMDB-Konnektor weitergibt; wie oben erläutert wurde, sollte dies jedoch aus Lastgründen nur eine Fallback-Lösung darstellen. Die Verarbeitung der Daten im ioCMDB-Konnektor findet in mehreren Stufen statt. Zunächst werden Änderungen mittels eines Filters auf ihre Relevanz überprüft. Der Filter arbeitet regelbasiert, wobei umfangreichere Regelsätze zu sog. Policies zusammengefasst werden, die wie Policies für andere Dienste in einem Enterprise Policy Repository hinterlegt sind; jede Filterregel entscheidet anhand der Metadaten (z.B. CI eines bestimmten Typs) und der Attributwerte (z.B. Serverhardware, die einem organisationsübergreifend relevanten Dienst zugeordnet ist), ob die Änderung ans Zielsystem propagiert werden soll. Sofern mehrere Regeln für dasselbe Quellobjekt zutreffen, muss das Verhalten im Konfliktfall, d.h. bei einander widersprechenden Regeln, definiert werden. Für die Abbildung der Regeln auf ein maschinenlesbares Format stehen diverse, meist XML-basierte Policysprachen zur Auswahl, die hier nicht näher diskutiert werden. Im zweiten Schritt muss bestimmt werden, welches Objekt im Zielsystem von der aktuellen Operation betroffen ist. Dies umfasst einerseits die Transformation des lokalen Objektidentifikators 702 in denjenigen des Zielsystems, wofür wie oben erläutert z.B. Präfixe zum Einsatz kommen können; andererseits muss das Verhalten definiert werden, falls beispielsweise ein zu modifizierendes oder zu löschendes Objekt im Zielsystem nicht vorhanden ist. Auch bei diesen Konfigurationsparametern handelt es sich um Regelwerke, die im Policy Repository hinterlegt werden können. Daran anschließend sind in einem dritten Schritt sowohl Attributnamen als auch -werte in das Format des Zielsystems umzuwandeln. Wir schlagen hierfür den Einsatz eines XSLT-Prozessors vor. XSLT ist einerseits ein Standard zur Transformation von XML-basierten Daten, so dass die Implementierungskosten sowohl für den Datenkonverter als auch die szenarien-spezifischen Transformationsregeln gering sind, da z.B. Open Source Komponenten wie Xalan [10] eingesetzt werden können; andererseits ermöglicht eine XML-basierte Ausgabe die dynamische Ergänzung zusätzlicher Attribute im Zielsystem, beispielsweise wie oben diskutiert zur expliziten Angabe von Maß- und Kosteneinheiten. Dadurch können aufwendige Schema-Erweiterungen der lokalen CMDBs einfach vermieden werden. Schließlich werden die konvertierten Daten ins Zielsystem geschrieben bzw. ggf. die Löschoperation ausgeführt. Die Kommunikation erfolgt in unserem ioCMDB-Modell über Web Services; dabei muss konnektoren-seitig ein Puffer implementiert werden, der Änderungen bei temporärer Nichterreichbarkeit des Zielsystems zwischenspeichert. Exakt dieselben Schritte sind – mit entsprechend angepassten Parametern – auch bei Datenrückflüssen aus der ioCMDB in eine lokale CMDB zu durchlaufen. Ein Initialabgleich zwischen CMDB und ioCMDB kann angestoßen werden, indem für jedes Objekt im Quellsystem entweder ein Änderungsevent erzeugt oder eine triviale Änderung, z.B. ein Eintrag ins Historienattribut, durchgeführt wird. Die web-servicebasierte Kommunikation mit der ioCMDB sollte prinzipiell verschlüsselt erfolgen, da sensible Daten i.d.R. via Internet übertragen werden, und kann durch zusätzliche SecurityStandardmechanismen wie Firewalls dem Bedarf entsprechend abgesichert werden. Abbildung 3 Einsatz der ioCMDB-Konnektoren in einem einfachen Szenario 3. Zusammenfassung und Ausblick Dienste, die auf dem Zusammenwirken mehrerer Organisationen basieren, benötigen zur Umsetzung der komplexen Anforderungen des GRC-Managements eine gezielte Werkzeugunterstützung. In Anlehnung an die ITIL-basierte CMDB setzen wir hierzu eine inter-organisationale 703 CMDB (ioCMDB) ein. Wir haben ferner gezeigt, dass beim Deployment einer ioCMDB besonderes Augenmerk auf die Datenmodellierung zu richten ist, um für jedes Szenario eine kostengünstige und nachhaltige Lösung umzusetzen. Dabei ist explizit vorgesehen, dass die ioCMDB auch zusätzliche CIs aufnehmen kann, die in den lokalen CMDBs nicht vorhanden sind. Diesem Aspekt muss beim Schema-Design Rechnung getragen werden, wofür wir eine grundlegende Herangehensweise vorgestellt haben. Für den Austausch von Informationen zwischen CMDBs und ioCMDBs haben wir einen Prozess der Datensynchronisation vorgeschlagen, der Event-orientiert auf Basis von Web Services umgesetzt werden kann. Schließlich haben wir die notwendigen technischen Komponenten erläutert und dabei insbesondere den ioCMDB-Konnektor und seinen internen Workflow zur XSLT-basierten Verarbeitung der CI-Daten vertieft. Im Rahmen einer formalen Kooperation mit einer der Organisationen, die führend am CMDBfKomitee [2] beteiligt ist, streben wir an, unsere Konzepte zum organisationsübergreifenden CMDB-Einsatz in die aktuellen Standardisierungsbemühungen einfließen zu lassen. Parallel dazu wird an einer prototypischen Implementierung gearbeitet, mit der sich eine bestehende CMDB für den Einsatz als ioCMDB aufrüsten lässt. Danksagung: Die Autoren danken der IntegraTUM-Projektgruppe und dem Munich Network Management (MNM) Team für fruchtbare Diskussionen und Anregungen zu diesem Beitrag. IntegraTUM ist das Projekt der TUM zur Schaffung einer nahtlosen und benutzerfreundlichen IuKInfrastruktur, das von der DFG unter Vertragsnummer WGI 554 975 gefördert und vom Vizepräsidenten und CIO der TUM, Prof. Dr. Arndt Bode, geleitet wird. Das MNM-Team ist eine Forschungsgruppe mit Mitgliedern an der LMU, der TUM, der Universität der Bundeswehr München und dem LeibnizRechenzentrum der Bayerischen Akademie der Wissenschaften unter Leitung von Prof. Dr. HeinzGerd Hegering. 4. Literaturangaben [1] BMC Software, Best Practices for Modeling Business Entities in the BMC Atrium CMDB, Verfügbar online unter: www.bmc.com/products/documents/20/52/62052/62052.pdf, 2008. [2] CARLISLE, F. et. al. CMDB Federation (CMDBf) - Committee Draft. Technical report, BMC Software, CA, Fujitsu, Hewlett-Packard, IBM, Microsoft, Januar 2008. http://cmdbf.org/. [3] FOSTER, I., et. al. The Open Grid Services Architecture, Version 1.5. Informational Document, Global Grid Forum (GGF), July 24, 2006. [4] HILLMANN, D. Using Dublin Core. Verfügbar online unter http://dublincore.org/documents/usageguide/ . 2005 [5] HOMMEL, W. und KNITTL, S., An Inter–Organizational Configuration Management Database as Key Enabler for Future IT Service Management Processes , In eChallenges 2008, 2008, Stockholm, Schweden, Oktober, 2008 [6] KIMBALL, R. CAERTA, J. The Data Warehouse ETL Toolkit. Indianapolis, IN: Wiley. 2004 [7] MACFARLANE, Shirley. Service Transition, Itil, Version 3. Edinburgh: Stationery Office, 2007. [8] N(i)2. N(i)2 - MULTI-DOMAIN CMDB SYSTEM – White Paper, Verfügbar online unter http://ni2.com/, 2008. [9] SHIN, S. K. und SANDERS, G. L. 2006. Denormalization strategies for data retrieval from data warehouses. Decis. Support Syst. 42, 1 (Oct. 2006), 267-282. [10] The Apache Xalan Project. Verfügbar online unter http://xalan.apache.org/. Zugriff am 20.07.2008. 704 KONZEPTIONELLE METAMODELLE VON IT-GOVERNANCE-REFERENZMODELLEN ALS BASIS DER KOMBINATION UND INTEGRATION IN EINER MULTI-MODELL-UMGEBUNG Stefanie Alter, Matthias Goeken1 Kurzfassung In jüngster Zeit steht zur methodischen Unterstützung der Aufgaben der Unternehmens-IT eine stetig wachsende Anzahl von Referenzmodellen zur Verfügung. Aus verschiedenen Gründen können diese Referenzmodelle immer seltener isoliert voneinander betrachtet und eingesetzt werden. Vielmehr wird es für die IT-Abteilungen zu einer Herausforderung, das Zusammenspiel in einer „Multi-Modell-Umgebung“ [29] aktiv zu gestalten, um mit dieser Heterogenität umzugehen, bspw. weil die Modelle in Teilen redundante Anwendungsbereiche haben, Unterschiede hinsichtlich der zugrundeliegenden Sprachwelten aufweisen und auf verschiedenen Prinzipien beruhen. In der Praxis sind Vorschläge entwickelt worden, Modelle direkt ineinander abzubilden („Mapping“). Dieser Ansatz weist jedoch verschiedene Probleme auf. Als eine weitergehende und methodisch fundierte Art, mit den genannten Herausforderungen umzugehen, wird die Metamodellierung angesehen, durch die die genannten Modelle auch auf Ebene ihrer Komponenten und Strukturen analysiert, verglichen und integriert werden können. 1. Einführung Für Betrieb und Entwicklung von Anwendungssystemen bzw. IT-Infrastruktur sowie die damit zusammenhängenden Steuerungs- und Kontrollaufgaben sind gegenwärtig mannigfaltige Referenzmodelle, Best-Practice-Modelle und Standards verfügbar (im Folgenden einheitlich „Referenzmodell“2): Für die IT-Infrastruktur sind insbesondere die IT Infrastructure Library (ITIL) bzw. ISO 20000 für das Servicemanagement, die Control Objectives for Information and related Technology (COBIT) für IT-Governance (i. e. S.) und Audits sowie die verschiedenen Sicherheitsstandards (ISO 17799 bzw. 2700x sowie BSIGrundschutz) maßgeblich. Hinzu kommen u. a. Modelle für Entwicklung (CMMI) und Projektmanagement (PRINCE 2 und PMBOK) [15]. 1 Frankfurt School of Finance & Management. Für diesen Beitrag sind auch solche Referenzmodelle von Bedeutung, die nicht der IT-Governance i. e. S. zugeordnet werden. In Anlehnung an [15, S. 21 ff. sowie die dort angegebene Literatur] werden jedoch auch solche Modelle als „IT-Governance-Referenzmodelle“ bezeichnet, die außer Strukturen auch Prozesse und Techniken zur methodischen Unterstützung der genannten Aufgaben der Unternehmens-IT beschreiben. 2 705 In der Regel kommen in Unternehmen mehrere Referenzmodelle zum Teil oder vollständig nebeneinander zum Einsatz, um für die verschiedenen Anwendungsbereiche jeweils spezifische methodische Unterstützung zu erhalten. Da die Modelle jedoch zunehmend thematisch-inhaltliche Überlappungen aufweisen, wird die parallele, aber kontrolliertkombinierte Anwendung dieser Referenzmodelle zunehmend wichtiger, damit sie eine gemeinsame Steuerungswirkung entfalten können und sich nicht unterschiedliche, nicht kompatible Sprachwelten entwickeln. Daher wird die Integration oder Kombination der Modelle zu ganzheitlichen Referenzmodellen vermehrt gefordert [13,18]. In Literatur und Praxis gibt es eine Reihe von Ansätzen und Initiativen, mit dieser Modellvielfalt umzugehen [vgl. 15, S. 205 ff. und die dort angegebenen Quellen], was die hohe praktische Relevanz offenbart. Die Ansätze und Initiativen reichen von merkmalsbasierten Vergleichen, die den Gegenstandsbereich der Referenzmodelle charakterisieren und abgrenzen, bis hin zu umfangreichen „Mappings“, in denen jeweils angegeben ist, welche Bestandteile und Komponenten verschiedener Referenzmodelle miteinander korrespondieren bzw. sich ergänzen [11] Insbesondere in den „Mappings“ werden jeweils nur Teile und ausgewählte Komponenten der Modelle in die Betrachtung einbezogen. Gleichzeitig ergibt sich dabei eine enorme Detailtiefe, da die Betrachtung auf Ebene der Modelle selbst erfolgt. Ein Vergleich der den Modellen zugrundeliegenden Strukturen findet in der Regel nicht statt. Nach Ansicht der Verfasser fehlt eine methodische Fundierung für einen systematischen und abstrakten Vergleich sowie die Integration und Kombination der unterschiedlichen Modelle. Aus diesem Grund wird hier versucht, einen weitergehenden und ergänzenden Beitrag für den Umgang mit der Modellvielfalt zu leisten. Dieser stützt sich auf Metamodelle, die sich in anderen Bereichen der Wirtschaftsinformatik als hilfreich erwiesen haben, um die höhere Abstraktionsebene für einen Vergleich oder für die Integration zu nutzen [6, 32]. Sie erlauben aufgrund des abstrakteren Herangehens die Vernachlässigung von Details bei gleichzeitig ganzheitlicherer Sicht auf mehr oder alle relevanten Modellkomponenten. In Abschnitt 3 wird daher die Entwicklung eines Metamodells eines Best-Practice-Referenzmodells beschrieben. In Anlehnung an Ansätze aus dem Bereich der Schemaintegration von Datenbanken können - in einem weiteren Schritt - Korrespondenzen zwischen Metamodellkomponenten festgestellt werden, womit sich die Integration der konzeptionellen Metamodelle weitergehend unterstützen lässt. Zuvor erfolgt eine Beschreibung der „Multi-Modell-Umgebung“ in der ITGovernance (Abschnitt 2). Schlussfolgerungen sowie ein Ausblick auf weitere Forschungsarbeiten in Abschnitt 5 schließen diese Arbeit ab. 2. IT Governance: Eine Multi-Modell-Umgebung Die verfügbaren Referenzmodelle entsprechen unterschiedlichen Perspektiven auf die Unternehmens-IT. So wird beispielsweise COBIT [10] von Wirtschaftsprüfern und Auditoren bevorzugt, während im Bereich Systementwicklung CMMI [26] Verwendung findet. Der ITBetrieb wiederum hat seine Prozesse vielfach an ITIL [24] oder ISO 20000 ausgerichtet [19]. Die verschiedenen verwendeten Referenzmodelle stellen somit eine sogenannte „MultiModell-Umgebung“ dar [29]. Die Gründe für die Entwicklung dieser Multi-ModellUmgebung, die daraus resultierenden Herausforderungen sowie mögliche Lösungsansätze werden in diesem Abschnitt vorgestellt. Es ist vermehrt zu beobachten, dass der Gegenstandsbereich der Referenzmodelle wächst [13, 19], da die jeweils neuen Versionen der Referenzmodelle im Vergleich zu ihren Vorgängern 706 zumeist größere fachliche Bereiche abdecken. Beispielhaft sei hier die Veränderung von ITIL V2 zu ITIL V3 genannt: Während ITIL V2 sich primär auf Prozesse fokussierte, beschäftigt sich ITIL V3 zusätzlich mit Strategie (Service Strategy) und Optimierung (Continual Service Improvement). V3 nimmt darüber hinaus stärker als V2 die Integration der IT in das Business in den Fokus (Alignment) [23, 24]. Ähnliche Entwicklungen lassen sich bei CMMI und COBIT beobachten. Durch die Ausdehnung der Modelle ergeben sich so vermehrt Schnittmengen und Redundanzen bei Anwendung von vormals tendenziell spezialisierten und überschneidungsfreien Modellen. Ein weiterer Grund ist die Integration von Funktionsbereichen. Unternehmensbereiche wie beispielsweise die Entwicklung sind angehalten, mit anderen Unternehmensbereichen zusammenzuarbeiten. Durch abteilungsübergreifende Projekte müssen sich Mitarbeiter mit unterschiedlichen Referenzmodellen auseinandersetzen, den verschiedenen Modellen jeweils die relevanten Teile entnehmen und diese ad hoc kombinieren. Abbildung 1 zeigt die Multi-Modell-Umgebung aus dem Blickwinkel eines Prozessverbesserungsprojektes im IT-Bereich. Zur Realisation des Projektes werden Kenntnisse sowohl in domänen-spezifischen als auch in domänen-neutralen Modellen benötigt. Diese Modelle lassen sich zusätzlich in die Bereiche Governance und Organisationale Infrastruktur bzw. Bereitschaft einteilen. Solche übergreifenden Projekte sind ein weiterer Grund für das Entstehen einer Multi-Modell-Umgebung. Domänen neutral Organisationale Infrastruktur und Bereitschaft (einschließlich Geschäftspraktiken, Entwicklungsmethoden sowie Veränderungs- und Verbesserungsmethoden) EFQM Lean Six Sigma COBIT SOX ISO 9000 CMMI PRINCE 2 P-CMM ISO 12207 IT-Grundschutz SCOR ITIL SWEBOK Steigende Entscheidungsautorität der Verwendergruppe Governance (einschließlich externer Bestimmungen und Regulationen sowie intern beschlossener Governance) Domänen spezifisch Steigende Entscheidungsautorität der Verwendergruppe Abbildung 1 Multi Model Umgebung (In enger Anlehnung an [29]) Weiterhin können verschiedene Stakeholder des Unternehmens Promotoren oder Gegner einzelner Referenzmodelle sein, sodass deren Auswahl nicht immer streng ökonomisch und sachlich begründet verlaufen muss. Hiermit verwandt sind regulatorische Anforderungen (Compliance), welche Empfehlungen oder Verpflichtungen aussprechen, durch die die Verwendung von bestimmten, unterschiedlichen Modellen obligatorisch werden kann. Aus den genannten Gründen resultiert, dass sich die methodische Unterstützung durch Referenzmodelle als eine „Multi-Modell-Umgebung“ darstellt, woraus sich Unternehmen vor diverse Herausforderungen gestellt sehen. Bspw. führt die Verwendung von unterschiedlichen Referenzmodellen dazu, dass getrennte Sprachwelten entstehen.3 Außerdem können die 3 Besonders deutlich wird dies im Umfeld von COBIT [10, 11, 12] und CMMI [18, 26]. Ein Prozess und seine Ziele werden etwa im COBIT-Referenzmodell mit den Begriffen Process und Control Objective bezeichnet, während CMMI sie als Process Area und Specific Goal bzw. Specific Practice benennt. Ein COBIT Control 707 Anforderungen der verschiedenen Referenzmodelle an denselben Prozess kollidieren, indem unterschiedliche Schwerpunkte gesetzt oder Philosophien vertreten werden. Auch die Vorschläge zur Prozessausgestaltung können sich hinsichtlich der verantwortlichen Rollen und deren Aufgaben bzw. Rechte und Pflichten unterscheiden. Nennenswert sind außerdem die Anforderungen hinsichtlich der Compliance bei länderübergreifend agierenden Unternehmen. Diese und weitere Herausforderungen führen in den Unternehmen etwa zu Doppelarbeit, Mehrfachdokumentation oder auch redundanter Prozessmodellierung. Im Ergebnis erhöht der parallele Einsatz verschiedener Referenzmodelle so die Komplexität, und sie können keine gemeinsame Steuerungswirkung entfalten. Die Kombination oder Integration von Modellen kann eine Möglichkeit sein, den Herausforderungen der Multi-Modell-Umgebung zu begegnen. Praxisgeleitet gibt es – wie erwähnt – gegenwärtig mehrere Initiativen mit dem Ziel, die Referenzmodelle auf Ebene der Modelle aufeinander zu „mappen“, d. h. am Beispiel COBIT etwa auf Ebene der konkreten Control Objectives [siehe 15, S. 205 ff]. Ergebnis einer bereits abgeschlossenen MappingInitiative ist das ITIL-COBIT-Mapping des itSMF und der ISACA [14], welches Gemeinsamkeiten und Unterschiede verschiedener Modellkomponenten herausarbeitet. Aus der hierbei vorzufindenden Detailtiefe resultiert ein zum Teil schwer handhabbarer Umfang, bei [14] bspw. rd. 400 Seiten Mappingtabellen. Für die wissenschaftlich fundierte und stabile Integration ist es jedoch nach Auffassung der Autoren ratsam, die Referenzmodelle auch auf einer höheren Abstraktionsebene – der Metamodellebene – zu vergleichen, um so mögliche Ansatzpunkte für eine stabilere und handhabbarere Integration und Kombination herauszuarbeiten. 3. Konzeptionelle Metamodelle von IT-Governance-Referenzmodellen Der folgende Abschnitt beschäftigt sich mit konzeptionellen Metamodellen von ITGovernance-Referenzmodellen. In der Wirtschaftsinformatik werden Modelle genutzt, um von der Realität zu abstrahieren. Sind nun wiederum Modelle und nicht die reale Welt Gegenstand der Modellbildung, so werden Modelle von Modellen erstellt, welche als Metamodelle bezeichnet werden [32]. Da Metamodelle Modelle von Modellen sind, können zur Unterstützung Erkenntnisse aus der konzeptionellen Modellierung herangezogen werden. In Anlehnung an die Arbeiten von Becker, Schütte et al. [3, 27, 28] wird im folgenden Abschnitt der Erstellungsprozess von Metamodellen betrachtet. Abbildung 2 zeigt ein Metamodell des COBIT-Referenzmodells, anhand dessen die Entwicklung beispielhaft erläutert wird. Dieses Modell wird in Abschnitt 4 zur Illustration des Kombinations- und Integrationsprozesses verwendet (Zu einer genaueren Herleitung vergleiche [7, 8, 9]). In der Wirtschaftsinformatik ist die Tendenz zu erkennen, die Modellierungssprache zu fokussieren und deren Entwicklung zu forcieren [20, 21, 22, 32], während die Fragen des Vorgehens während des Modellierens weitgehend vernachlässigt werden. [33] bringen dies zum Ausdruck indem sie kritisieren, dass zwar der “way of modelling” bearbeitet wird, der “way of working” jedoch weitaus geringere Beachtung seitens der Wissenschaft erfährt. [21] bemerkt: „Recently, several software researchers and research groups have been proposing meta conceptual models. Although important results have been achieved, not much attention has been directed to the problem of filling the models, that is, instantiating the model with knowledge. Very little work has attacked the problem of bridging the gap from the real world Objective findet im CMMI keine exakte Entsprechung, kann aber im Umfeld der Begriffe Specific Goal und Specific Practice eingeordnet werden (siehe auch Abschnitt 4). 708 to the conceptual model.” Die erste grundlegende Frage ist daher: Wie kommt der Modellierer zum (Meta-) Modell? Oder anders: Wie kann das Wissen über das zu modellierende Objekt erlangt werden, das in das (Meta-)Modell eingehen soll? Role (1,*) is assigned to (1,*) Control Objective Activity (1,*) (1,1) (1,*) Control Practice (1,*) (0,*) Input is contained in uses / needs (1,1) IT-Resource Output is contained in is contained in isa (1,*) (1,4) Domain belongs to is used by (1,1) (1,1) (0,*) (0,*) (1,*) (1,1) Result (1,*) Process (0,*) supports has (1,1) Maturity Level (1,*) (1,5) (1,*) isa IT Governance Focus Area Goal (1,*) Activity Goal Information Criteria supports IT Goal Process Goal (1,7) (1,*) (1,*) is created by adresses is measured by is determined by (1,1) (1,*) Metric Maturity Model Abbildung 2 Ontologisches Metamodell von COBIT Der Modellierer kann als Brücke und Interpreter zwischen Realität und Modell bzw. zwischen Modell und Metamodell betrachtet werden. [5, S. 74] beschreibt die Modellierungssituation folgendermaßen: „Setzt man Modellierung mit Abbildung der Realität gleich, so würde nicht nur der Modellerstellungsvorgang trivialisiert - man bräuchte nur noch ein geschultes Auge und eine gewisse Auffassungsgabe für die Realität - , sondern man ginge von der impliziten Annahme aus, daß die Realität objektiv erkennbare Strukturen aufweisen würde.“ Vor diesem Hintergrund stellt sich die Frage, wie der Metamodellierungsprozess methodisch fundiert ablaufen kann. Hier ist kritisch zu analysieren, wie ein mehrere hundert Seiten umfassendes Referenzmodell durch eine strukturierte Vorgehensweise in ein Metamodell abgebildet werden kann. COBIT bspw. erleichtert den Metamodellierungsprozess durch die ihm innewohnende Struktur. Vereinfacht gesagt hat COBIT – im Sinne von [5] – eine „objektiv erkennbare Struktur“, die die Darstellung der Komponenten in einem Metamodell erleichtert. Allerdings stellt sich die Frage, ob die „objektiv erkennbaren Strukturen“ jeweils auch die semantisch gehaltvollsten sind. Soll jedoch für ein im Vergleich unstrukturierteres Modell wie ITIL ein Metamodell erstellt werden, ist die methodische Fundierung des Metaisierungsprozesses eine weitaus größere Herausforderung. Um von der Instanzebene über die Modellebene zur Ebene der Metamodelle zu kommen, werden Mechanismen für die Abstraktion benötigt. Im Rahmen der Metamodellierung abstrahiert der Modellierer ausgehend vom ursprünglichen Modell auf eine höhere ModellEbene, die Metamodellebene. Diesen Abstraktionsmechanismus nennt Strahringer [32] 709 Metaisierungsprinzip. Ein in der Wirtschaftsinformatik stark verbreiteter Mechanismus ist die linguistische Abstraktion. Dieses Metaisierungsprinzip wird beispielsweise verwendet, um eine Sprache abzubilden. Neben der sprachlichen Abstraktion gibt es weitere Möglichkeiten des Metaisierens. So betonen [17] und [1] die Möglichkeiten des ontologischen Metaisierens, das im Gegensatz zum sprachlichen Metaisieren eine Abbildung der Modellkomponenten aufgrund ihrer ontologischen Zusammenhänge darstellt. Für das COBIT-Metamodell wurde die ontologische Abstraktionsform verwendet, um die relevanten Komponenten der Referenzmodelle der IT-Governance zu beschreiben. Für den Benutzer des Metamodells kann es von Bedeutung sein, das Metaisierungsprinzip zu kennen, da insbesondere beim ontologischen Metaisierungsprinzip der Modellierer diverse subjektive Modellierungsentscheidungen treffen muss [16]. Hier ist es jedoch ausreichend, kurz auf das verwendete Metaisierungsprinzip hinzuweisen, etwa durch den Titel des Metamodells. Bereits eine Deklaration in der Bildunterschrift erleichtert dem Benutzer das Modellverständnis. Um Modelle bzw. Metamodelle für die weitere Forschung nutzbar zu machen, sollte nach Meinung der Verfasser die Qualität des Metamodells Beachtung finden. Die Bestimmung der Qualität von Modellen ist jedoch problematisch, wie das folgende Zitat von [3, S. 2] verdeutlicht: „Ein wichtiger Punkt ist … die Tatsache, dass die Richtigkeit von Modellen nicht letztendlich nachweisbar ist, sondern sich aus dem Diskurs der Sachkundigen und Gutwilligen ergibt, die ein Modell als zutreffend erachten“. Darüber hinausgehend wird vermehrt ein höheres Maß an Transparenz und Nachvollziehbarkeit beim Modellierungsprozess und bei der Evaluation von Modellierungsergebnissen gefordert. Insbesondere für letzteres können Erkenntnisse der Evaluation von konzeptionellen Modellen herangezogen und auf die Metamodellierung angepasst werden. Eine Möglichkeit zur Evaluation könnte beispielsweise die der pragmatischen Modellqualität sein. [22] evaluieren die pragmatische Qualität von Modellen mithilfe von Benutzerbefragungen und schließen von der Benutzerzufriedenheit auf die Qualität des Modells. Um diese Form der Evaluation jedoch für Metamodelle von Referenzmodellen der IT-Governance nutzen zu können, sind verschiedene Fragen zu analysieren. Beispielsweise die Frage, welche Art von Benutzer für eine Evaluation geeignet ist. Unabhängig von der Art der Evaluation kann jedoch festgehalten werden, dass erst Metamodelle von ausreichender Qualität zur Integration eingesetzt werden können. Zusammenfassend kann festgehalten werden, dass der Erstellungsprozess von Metamodellen methodisch fundiert erfolgen sollte, dass das Metaisierungsprinzip eines Modells ersichtlich sein muss und die Modelle evaluiert werden sollten. In dieser Form erstellte konzeptionelle Metamodelle von Referenzmodellen können - wie im folgenden Abschnitt beschrieben - zur Kombination und Integration eingesetzt werden. 4. Kombination und Integration von IT-Governance-Referenzmodellen mithilfe von Metamodellen Im Folgenden wird die Eignung von Metamodellen zur Kombination und Integration von Referenzmodellen erörtert. Die Möglichkeiten und Grenzen eines Metamodells als Hilfsmittel zur Kombination und Integration werden am Beispiel der Referenzmodelle COBIT 4.1 und CMMI dargestellt. Hierbei wird auf Verfahren der Schemaintegration von Datenbanken zurückgegriffen, deren Anwendung für den hier verfolgten Zweck zielführend erscheint. Das Ziel der Schemaintegration ist es, mehrere konzeptionelle Schemata in einem integrierten Schema zusammenzuführen. [2] definieren Schemaintegration als „… the process of merging 710 several conceptual schemas into a global conceptual schema… .“ Sie betonen weiter, dass das alleinige Auffinden gleicher Konstrukte und Konzepte nicht ausreicht. Vielmehr müssen Ähnlichkeiten und Unterschiede zwischen den Input-Schemata festgestellt werden. Da die Konstruktion eines globalen Modells auch der Zweck der Integration verschiedener (spezialisierter) Modelle sein kann, liegt eine ähnliche Zielsetzung vor. Darüber hinaus verweisen [2] darauf, dass Ähnlichkeiten und Unterschiede – auch Korrespondenzen genannt – in den zu integrierenden Modellen festgestellt werden müssen, um angemessen entscheiden zu können, ob entsprechende Modellkomponenten bspw. modifiziert in ein globales Schema eingehen können. Für das Zusammenführen von Modellfragmenten sind von [30, 31, 25] vier Aktivitäten vorgesehen, die im Folgenden am Beispiel eines Ausschnitts des vorgestellten COBITMetamodells und CMMI exemplarisch durchgeführt und diskutiert werden: (1) Vorintegration, (2) Vergleich und Konfliktidentifikation, (3) Anpassung und Überlagerung und (4) Restrukturierung- und Optimierungsphase. Ad (1) Vorintegration Im Rahmen der Vorintegration wird festgelegt, welche Modellkomponenten in welcher Reihenfolge konsolidiert werden sollen. Hierbei werden verschiedene Integrationsstrategien unterschieden, bei denen die zu integrierenden Modelle mit unterschiedlichem Gewicht eingehen. Wird die Erstellung eines globalen Modells angestrebt, so ist es Ziel, dass die unterschiedlichen Modelle gleichgewichtig eingehen. Anders wäre es, wenn ein Modell als Bezugspunkt genommen wird. Übertragen auf den hier vorliegenden Anwendungsfall bedeutet dies die Identifikation der zu integrierenden Modelle, des Ausmaßes der Integration und der Reihenfolge. In unserem Beispiel sollen COBIT 4.1 und CMMI gleichgewichtig integriert werden. Ausgangspunkt ist das COBIT-Modell ohne jegliche Erweiterungen [10 bzw. 8]. CMMI wird ebenfalls in seiner elementaren Form verwendet [27]. Ad (2) Vergleich und Konfliktidentifikation In der nächsten Phase erfolgt der Schemavergleich, bei dem Beziehungen zwischen den Elementen der Referenzmodelle identifiziert, analysiert und dokumentiert werden. Insbesondere sollen Konflikte und Inkonsistenzen aufgedeckt werden. Unterschieden werden in Anlehnung an [4] vier semantische Beziehungen: • Äquivalenz: Zwei Konstrukte zweier Modelle sind als äquivalent zu bezeichnen. • Überlappung: Zwei Konstrukte zweier Modelle bilden eine nichtleere Schnittmenge. • Einschluss/Teilmenge: Ein Konstrukt von einem Modell schließt ein Konstrukt eines anderen Modells vollständig ein. • Disjunktheit: Zwei Konstrukte zweier Modelle bilden eine leere Menge, stehen jedoch in einer für die Konsolidierung relevanten Beziehung. Welche der genannten Beziehungen vorliegt, muss einerseits über die Benennung der Modellelemente entschieden werden, wobei es gilt, mögliche semantische Defekte zu identifizieren (Synonyme, Homonyme). Eine tiefer gehende Integration und Analyse würde auch die Instanzen der jeweiligen (Meta-)Modellelemente einbeziehen. 711 Specific Practice und Sub Practice (Überlappung) Specific Practice und Sub Practice (Überlappung) Activity Control Objective is contained in Specific Practice und Sub Practice (Überlappung) is contained in Control Practice belongs to Domain Category (Extensionale Äquivalenz) is used by Result Work Products (Extensionale Äquivalenz) Process is created by Process Area (Extensionale Äquivalenz) is measured by has Maturity Level Capability (Extensionale Äquivalenz) Metric ohne Entsprechung (Disjunktheit) Abbildung 3 Vergleich von COBIT und CMMI Abbildung 3 zeigt einen Ausschnitt des COBIT-Metamodells aus Abbildung 2. Die einzelnen Konstrukte werden jeweils mit dem CMMI-Referenzmodell verglichen und gemäß den genannten semantischen Beziehungen gekennzeichnet. Beispielsweise kann die COBITKomponente Process als äquivalent zur CMMI-Komponente Process Area betrachtet werden. Demgegenüber gibt es in CMMI keine Entsprechung für die COBIT-Komponente Metric. Beispiele für Überlappungen sind CMMI Specific Practices, die Überschneidungen zu den COBIT Control Objectives aufweisen. Ad (3) Anpassung und Überlagerung Ziel dieser Aktivität ist es, die Modelle durch Mischen bzw. Überlagern in ein gemeinsames konzeptionelles Modell zu überführen. Hierbei kommen Integrationsregeln zum Einsatz, die festlegen, wie Modellelemente, zwischen denen eine Beziehung besteht, in dem globalen Modell abgebildet werden [4, 30, 31]. Für die verschiedenen vorliegenden semantischen Beziehungen können Integrationsregeln für die Bildung eines globalen Modells definiert werden. Bspw. kann bei Äquivalenz ein gemeinsames Modellelement in das globale Modell aufgenommen werden; bei Überlappung bietet sich die Bildung eines integrierenden, gemeinsamen Modellelements (ggf. mit neuem Bezeichner) an, welches beide Modellelemente semantisch voll umfasst; bei Disjunktheit kann entschieden werden, ob das Modellelement in dem konkreten Anwendungsfall Bedeutung hat oder ob es vernachlässigt werden kann. Letzteres kann bspw. mit Blick auf das Element Metric (Abbildung 2) erwogen werden. Process (bzw. Process Area) und Result (Work Product) können - nach entsprechender Entscheidung für die Benennung - unverändert in das globale Modell eingehen. Bei Activity und Control Objective ist ein differenzierteres Vorgehen möglich und die Aufteilung in mehrere Modellelemente erforderlich. Ad (4) Restrukturierung- und Optimierungsphase Schließlich können an dem Endergebnis oder den Zwischenergebnissen Restrukturierungen und/oder Optimierungen vorgenommen werden. Sind im Anschluss weitere Referenzmodelle zu integrieren, wird mit der Aktivität 2 fortgefahren. 712 Im Ergebnis sind so Korrespondenzen auf Ebene der Metamodellkomponenten identifiziert, wodurch sich zum einen ein höheres Maß an Transparenz und Vereinheitlichung der unterschiedlichen Sprachwelten ergibt. Zum anderen lässt sich auf Grundlage einer solchen Analyse ein kontrolliert-kombinierter und ggf. ein integrierter Einsatz verschiedener Referenzmodelle der IT-Governance fundierter gestalten. 5. Fazit und Ausblick Die Metamodellierung von Referenzmodellen stellt nach Meinung der Verfasser eine Möglichkeit dar, den beschriebenen Herausforderungen sinnvoll zu begegnen. Bevor jedoch Metamodelle zur Integration genutzt werden können, muss sicher gestellt sein, dass die Qualität der Modelle ausreichend ist, d.h. die Modelle müssen zunächst in einem methodisch gestützten Verfahren erstellt werden. Hinsichtlich der anschließenden Evaluation ergeben sich neben den bekannten Problemen der Evaluation von konzeptionellen Modellen spezielle Herausforderungen, die auf die Metaebene zurückzuführen sind. Ein weiterer notwendiger Schritt ist die Integration von mehreren heterogenen Referenzmodellen. Die Integration zweier Referenzmodelle, wie hier für COBIT und CMMI illustriert, ist lediglich der erste Schritt, um den Herausforderungen einer Multi-Modell-Umgebung zu begegnen. Ein generisches Metamodell, - das vergleichbar zu einer EAI-Applikation - die vorhandenen Modelle integriert und je nach Standpunkt auch als Metametamodell [32] bezeichnet werden kann, wird Gegenstand weiterer Forschungsbemühungen sein. Kritisch zu betrachten ist die Frage nach der Integration der Modelle auf der Ebene der Anwendung von Referenzmodellen (Ebene der Prozessbeschreibungen etc.). Die Integration von Modellen auf Metaebene ist nicht ohne weiteres auch auf der Modellebene anzuwenden. Die Veröffentlichungen der adressierten Referenzmodelle umfassen zum Teil mehrere hundert Seiten und beinhalten Prozess- und Rollenbeschreibungen, Hinweise und vieles weitere. Die Verfasser sind sich bewusst, dass die Metamodellierung hierfür lediglich einen Startpunkt darstellt. Die Integration auf der Ebene von Aktivitäten oder gar Teilaktivitäten kann durch Metamodelle nicht geleistet werden. Jedoch ist die Identifikation von Konflikten auf der Ebene der konzeptionellen Elemente eines Referenzmodells ein erster und entscheidender Schritt für eine Integration auf den nachgelagerten Ebenen. Auf Metaebene können so potentielle Kombinationspunkte ausfindig gemacht werden, welche eine spätere Kombination auf Modellebene erst ermöglichen. Weitere Forschungsbemühungen adressieren daher die gemeinsame toolgestützte Abbildung von Metamodellen und Modellen in einem semantischen Netz. Literaturverzeichnis [1] ATKINSON, C., KÜHNE, T., Model-Driven Development: A Metamodeling Foundation, IEEE Software, vol. 20, no. 5, pp. 36–41, 2003. [2] BATINI, C., LENZERINI, M.; NAVATHE, S.B., A Comparative analysis of methodologies for database schema integration. In: ACM Computing Surveys 18 (1986) 4, S. 323-364, 1986. [3] BECKER, J., ALGERMISSEN, L., Grundsätze ordnungsmäßiger Modellierung - Über Konstruktivisten, Handels-H's und Referenzmodelle, Arbeitsberichte des Instituts für Wirtschaftsinformatik,Westfälische Wilhelms-Universität Münster , 1994. [4] CONRAD, S., Schemaintegration. Integrationskonflikte, Lösungsansätze, aktuelle Herausforderungen, in: Informatik – Forschung und Entwicklung 17 (2002), pp. 101-111, 2002. [5] DRESBACH, S.: Epistemologische Überlegungen zu Modellen in der Wirtschaftsinformatik. In Becker, J., Schütte, R., Wendt, O., Zelewski, S. (Eds.): Wirtschaftsinformatik und Wissenschaftstheorie. Bestandsaufnahmen und Perspektiven. Wiesbaden, p. 71-94, 1999. [6] ESSER, M.; Komplexitätsbeherrschung in dynamischen Diskurswelten, Josef Eul Verlag, Köln 1999. [7] GOEKEN, M.; ALTER, S. Towards Conceptual Metamodeling of IT Governance Frameworks – Approach – Use- Benefits. Erscheint in: Proceedings of the Hawaii International Conference on System Sciences (HICSS’42), Waikoloa, Big Island, Hawaii 2009. 713 [8] GOEKEN, M.; ALTER, S., Representing IT Governance Frameworks as Metamodels, in: Proceedings of the 2008 International Conference on e-Learning, e-Business, Enterprise Information Systems, and eGovernment (EEE’08), World Congress in Computer Science (Worldcomp’08), July 14-17, Las Vegas Nevada 2008. [9] GOEKEN, M.; ALTER, S., IT Governance Frameworks as Methods, in: Proceedings of the 10th International Conference on Enterprise Information Systems (ICEIS 2008), June 12-16, Barcelona, Spain 2008. [10] IT GOVERNANCE INSTITUTE, COBIT 4.1, o.O. 2007. [11] IT GOVERNANCE INSTITUTE, COBIT Mapping, Overview of International IT Guidance, 2006. Unter: www.isaca.org, Abruf am 10.3.2007. [12] IT GOVERNANCE INSTITUTE, COBIT 4.0, o.O. 2006. [13] IT GOVERNANCE INSTITUTE, IT Governance Global Status Report, 2006. Verfügbar unter www.isaca.org, at; Abruf: 03.04.2007. [14] ITSMF und ISACA, ITIL-COBIT-Mapping, Gemeinsamkeiten und Unterschiede der IT-Standards, Symposion, Düsseldorf 2008. [15] JOHANNSEN, W.; GOEKEN, M., Referenzmodelle für IT-Governance, Heidelberg 2007. [16] KARAGIANNIS, D., KÜHN, H., Metamodeling Platforms, in: A. Min Tjoa, & G. Quirchmayer (Eds.), Lecture Notes in Computer Science: Vol. 2455. Proceedings of the Third International Conference EC-Web (pp. 451–464). Springer, 2002. [17] KARAGIANNIS, D., HÖFFERER, P., Metamodels in action: An overview. ICSOFT (1), 2006. [18] KNEUPER, R., CMMI, dpunktVerlag, Heidelberg 2007. [19] KPMG, Summary of KPMG IS Governance Survey. KPMG LLP, London, September 2004. [20] KURPJUWEIT, S.; WINTER, R., Viewpoint based Meta Model Engineering. EMISA 2007, pp 143-161, in: Manfred Reichert, Stefan Strecker, Klaus Turowski (Eds.): Enterprise Modelling and Information Systems Architectures - Concepts and Applications , Proceedings of the 2nd International Workshop on Enterprise Modelling and Information Systems Architectures (EMISA'07), October 8-9, 2007. LNI P-119 GI 2007. [21] LEITE, J.C.S.P.; FRANCO A.P.M., A strategy for conceptual model acquisition. In IEEE International Symposium on Requirements Engineering. IEEE Computer Society Press, Los Alamitos, CA, pp 243-246, 1993. [22] MAES, A., POELS, G., Evaluating quality of conceptual modelling scripts based on user perceptions, in: Data and Knowledge Engineering 63 (2007), p. 701-724. [23] OFFICE OF GOVERNMENT COMMERCE, ITIL V2, London 2000. [24] OFFICE OF GOVERNMENT COMMERCE, ITIL V3, London 2007. [25] RIZOPOULOS, N., McBRIEN, P., MAGNANI, M., MONTESI, D.: Schema Integration based on Uncertain Semantic Mappings, Conference or Workshop Paper, 24th International Conference on Conceptual Modeling (ER’05), Klagenfurt, Austria Lecture Notes in Computer Science,Volume 3716, pp.31–46, October 2005. [26] SOFTWARE ENGINEERING INSTITUTE, CMMI, 2007. [27] SCHÜTTE, R., Die neuen Grundsätze ordnungsmäßiger Modellierung, Paper zum Forschungsforum '97, 16.09.-20.09.1997 Leipzig 1997. [28] SCHÜTTE, R., ROTTHOWE, T., The Guidelines of Modeling- an approach to enhance the quality in information models. In Ling, Ram, Lee (Eds.) Conceptual Modeling – ER 98. Singapore, 16.-19.11.98, pp240-254, 1998. [29] SIVIY, J., KIRWAN, P., MARINO, L., MORLEY, J. Fünfteilige White Paper Serie zum Thema MultiModell-Umwelt, Unter: www.sei.cmu.edu/publications/pubweb.html, Abruf 10.07.2008. [30] SPACCAPIETRA, S., PARENT, C.; DUPONT, Y., Model Independent Assertions for Integration of Heterogeneous Schemas. VLDB Journal 1, 1, S. 81–126, 1992. [31] SPACCAPIETRA, S., PARENT, C., View Integration: A Step Forward in Solving Structural Conflicts. In: IEEE Transactions on Knowledge and Data Engineering 2, 6, S. 258-274, 1994. [32] STRAHRINGER; S., Metamodellierung als Instrument des Methodenvergleichs, Shaker Verlag, Aachen 1996. [33] VERHOEF, T.F., HOFSTEDE, A.H.M.T.; WIJERS; G.M., Structuring Modelling Knowledge for CASE Shells. In Andersen, R. et al. (Eds.): Proceedings of the third International Conference CAiSE’91 on Advanced Information Systems Engineering, pp. 502-524. 1991. 714 SOFTWAREENTWICKLUNGSMETHODEN Die Softwareentwicklung befindet sich im Umbruch. Neue Methoden und Technologien wie modellgetriebene Entwicklung, Extreme Programming, Web Services, Web 2.0, Open Source Ansätze und Wiederverwendung im Kleinen (Patterns) und im Grossen (Frameworks) verlangen von den SoftwareentwicklerInnen immer umfassendere Kompetenzen. Dabei spielt insbesondere die Kombination der verschiedenen Methoden eine bedeutende Rolle, um eine effektive und nachhaltige Verbesserung der Softwareentwicklung hinsichtlich Qualität und Zuverlässigkeit zu erzielen. Besonderes Augenmerk wird dabei auch auf entsprechende Ausbildungs- und Weiterbildungskonzepte gelegt, ohne die die korrespondierende organisatorische Umsetzung nicht möglich wäre. Leitungsgremium: Georg Herzwurm, Universität Stuttgart Matthias Jarke, Rheinisch-Westfälische Technische Hochschule Aachen Gertrude Kappel, Technische Universität Wien (Federführende) Frank Leymann, Universität Stuttgart Programmkomitee: Ruth Breu, Universität Innsbruck Peter Buxmann, Technische Universität Darmstadt Stefan Eicker, Universität Duisburg-Essen (Campus Essen) Gregor Engels, Universität Paderborn Michael Heiss, Siemens AG Österreich Jochen Küster, IBM Zürich Research Laboratory Barbara Paech, Universität Heidelberg Gustav Pomberger, Johannes Kepler Universität Linz ADJUSTMENT STRATEGIES FOR MANAGING UNANTICIPATED CHANGES IN SOFTWARE DEVELOPMENT PROCESSES Katja Andresen1, Norbert Gronau2 Abstract Software engineers face multiple challenges of managing unanticipated changes, dependencies, uncertainty, emerging demand patterns. In this contribution we focus on the process of software development and its design to especially cover unforeseen changes. The article presents a structural view on the (distributed) software engineering process introducing three domains that trigger adjustment opportunities of the engineering process. Hereafter the solution approach imposing the process model PEPMAD is outlined. 1 Introduction The software industry is acknowledged worldwide as a key driver of social and economic growth [28]. Software Engineering has been a research field since the late 60’s. The international conference on Software Engineering has been held regularly since 1975. Various meetings, events, journals and magazines are devoted to the topic of software engineering [28]. Nonetheless most modern approaches suffer from constraints that can be considered principles of the software engineering (as programming, testing, integrating). Of course, entire approaches emerged for which the motivation is to alleviate aspects. Nowadays advances address the building of selfadapting/managing/healing software systems [14]. Attempts are called automatic programming, constraint-based languages or aspect orientation to name a few Fehler! Verweisquelle konnte nicht gefunden werden.[19]. Hence new technologies are available to support the development of systems that respond more quickly and efficiently to a changing environment. However, most technology used to develop, maintain, and evolve software systems do not adequately cope with complexity, distribution and change [8], [16]. On the other hand, the capability to cope with changes is very often a unique selling proposition for software developing companies and essential for successful business. In this article the focus was laid on the engineering process that is being affected when changes need to be managed. The results stem from the research project “IOSEW”3 dedicated to explore the 1 University of Applied Science Berlin University of Potsdam 3 The research project IOSEW is funded by the Federal Ministry of Education and Research, Germany (IOSEW:01/SF 03). 2 717 link between flexibility strategies and (distributed) software product development. Four industrial partners that are small and medium sized contributed with specific software engineering processes and problems that provided the foundation for results. All of our industrial research partners develop and sell enterprise systems software. This contribution is organised as follows: first a short overview of the principles in software engineering process are given. The process is divided into time depended phases introducing change qualities. Afterwards a structural process view is presented dividing the process into sub-views that contribute to run-time adjustment. Then requirements and challenges in terms of optimization are discussed before the solution approach is presented. The section on recent developments points at influential research work. Finally, the results are summarized. 2 Characteristics of the Software Development Process The modern software paradigm requires basic activities. Although depths vary common initial planning activities comprise the definition of “ingredients” as engineering techniques such as specification, design, implementation et cetera. The selection of programming languages and basic project management methods are integral to modern software engineering. Along with that roles are assigned and a schedule is outlined in the initial planning process. During the course changes occur that may or may not have been foreseen, e.g. additional customer requirements, resource fluctuation and more [7]. If all options are known in advance only anticipated changes are to be planned for. However, common software engineering activities show a different picture. Table 1 provides typical adjustment challenges based on the research in IOSEW. Table 1: Typical requirements to design for adjustments Element A: Software development model B: Software development model / Actor C: Software development model D: Resource actor E: Environmental turbulence F: Environmental turbulence Challenges based on Case-Studies Unforeseen additional test phase Iteration of requirements analysis Combination of models, e.g. with development partners Key-Developer leaves company Top-Down Management Decision to cancel cooperation with external division Management decision about cooperation with new partner Design and Run-time considerations The examples undermine; in the design phase of the software engineering process the need for adjustment can not be fully foreseen or anticipated. Thus, the planning process takes all known and foreseen constraints into consideration. However, the goal is to design for unanticipated changes that may occur within the dynamic context of the process. The process should be enabled to adapt to changes during run-time. The differentiation between design-time and run-time is common in various approaches dealing with flexibility issues in systems and software techniques. Especially software systems are oftentimes characterized in this form [1], [6]. In software systems design issues as bandwidth, sensors, represent parameter that can individually adapt to environmental influences embedded in control loop constructions for instance [4]. The view helps to link qualities as flexibility, fault-tolerance, tempo of adjustment with initial (planned 718 for) behaviour and dynamic real-time performance of the software system. On one hand we use this perspective to differentiate between initial software process design and on the other to evaluate dynamic process behaviour; here unanticipated adaptation comes into play as unforeseen process variations are of importance. We consider the following research questions that are further discussed in this paper: 1. How can the complex task of designing an adjustable software engineering process be divided into subtasks that are more easily to manage? 2. How can the system be enabled to adapt for best output during run-time when unanticipated changes need to be addressed (goal-function). 3. Along with that how can the responsiveness be evaluated. Is there an easy way to integrate concepts into daily business? In the following section the software process is viewed thru the lens of increasing capability to adjust to changes. 3 Areas for Design and Run-Time Process Adjustment Generally, the systems approach is taken characterizing an information system. Figure 1 provides an unstructured overview of elements as the software development process, actors, organisational development and implementation techniques, relations between the arrangement of phases and the framework. The software (development) process itself is a structure typically comprised of the following steps: product and resource specification, development, implementation and release. For that a set of software development models exist describing approaches to activities that take place during the process. Actors as developers, members of the organisational and managing company structure as well as customers taking part in this process are involved. Phase 1 Phase 2 Phase 3 Phase.. Specif icat ion Developing Im plement at ion Release SE M odel SE Process Adapt ion request Act ors (dist rubut es) unit s decisions Figure 1: Elements of the Software Process To classify software processes the following system description follows a three layer approach that structures domains to analyse and influence adaptive behaviour: 1) elements 2) structural topology, and 3) decision area. 1) Elements of the systems describe all entities that are part of the software-engineering process. Each entity can be seen as parameter that is somehow adaptable to changing conditions. The degree of adaptable behaviour may be given by nature, e.g. the capabilities of actors to cope with changes. Others are determined by rules like building blocks and coverage of the chosen software development models. 719 A few scenarios (Table 1) can be realized if elements as correcting variable are considered. The test team in ‘A’ could respond to lacking software quality by integrating additional steps. Mastering the loss of a key-developer in D, integrating an additional phase into the waterfall model leads to limitations of adjustments purely based on adjustment of elements. The latter examples require structural changes. 2) The structural topology addresses the links between elements. The links can be dynamically established, changed or simply dropped during run-time of the software development process. Links represent communication flows between actors; the interconnection of phases (first x then y), tasks and sub-tasks. Process adjustments using structural topology require degrees of standardisation (as communication rules) to establish and deploy links. Also, modularity is a key to exchange and integrate elements. Roles therefore require clearly assigned profiles. Deploying modularity the process is structured into different stages to define variation points. Structural topology adjustment allows to completely revising the organisational set-up of the development process. However, elements (a phase, an actor) can be replaced without necessarily changing the structural topology. 3) The decision area refers to the (physical) distribution of elements. It relates to the area decisions to adapt are made. Distribution of elements raises the question of distributed (adaptable) process management. One of the features that are currently assigned to selforganizing systems is their decentralization [4]. Distributed adjustment involves further activities as distributed decision management and achievement strategies for desired global behaviour results. Decentralization of engineering processes may take different forms. Outsourcing, near- or off shoring are categories representing organizational aspects. Mapping two or more sites requires interoperable processes and process models. To add or diminish locations scalable structures are needed. Table 2: adjustment strategies (referring to scenarios in table 1) Domain A: additional testing Elements - possible but requires scalability of se model, actor B: Failure in functionality - possible but restricted to actor C: model combination in distributed environment D: key developer leaves - requires structural change E: management decision – cancel cooperation F: management decision cooperation 4 - Requires structural change; sd.-model might support profiles - requires structural change - work load increase possible (scalability) - requires structural change - work load decrease possible (scalability) Structural topology - adjustment of se4 model - model exchange - allocating additional work-load - methods - implementation of additional requirement analysis - defining synchronization points - se model adjustment or exchange - exchange of element - se model adjustment or - se model exchange - exchange or adjustment of elements Decision area - delegation of (modular) tasks, processes, phases - new partnering models - se model combination - expansion of decision area possilbe se model = software engineering process model (Waterfall, V Model, XP, RUP, …) 720 - (external) delegation - partnering as option - global (interoperable) process model - distributed software process management - delegation of activities - reduction of decision area In the view of the abovementioned elements contain the properties to adjust to changes; each representing “parameters” similar to correcting variables in software technique and other disciplines. This form of adaptation does not change the structure but the value or status of the element (e.g. work-load). As opposed to adjustment purely related to elements structural links allow a more dynamic behaviour towards unanticipated changes during run-time of the project. Common turbulences as loss and exchange of elements etc. require adjustments that address the structure or configuration of the se-process. Communication rules and behaviour are linked to this domain; likewise a revision of the (pre-planned) process model; the integration of redundant (work-load) absorbing structures. The third domain covers partnering strategies (outsourcing of activities). Collaboration to mutually address the product development is linked with a shift from local or personal level to global level. Obviously, organisational changes as distributing product development, integrating new partner during the project stands for a high degree of flexibility during the project. However scenarios as merging locally distributed teams and process models involves building responsiveness, agility and adaptability into process architectures, project management methods, and organizations. Adjustment Strategies and Requirements Many sources of change are relatively unpredictable such as changes in leadership personnel (E, F in table 2), not specifiable (emerging) functions or events (B). Frequently, when product development goals are at risk engineers interact ad-hoc to then known facts [7]. In such cases the engineering model may not be suitable anymore. If documentation is suddenly crucial the waterfall model will be an option perhaps in exchange of less documentation focussed models. Hence expensive rework and uncertainty need to be accepted. The best way to narrow the problem space is to identify candidates reducing the consequences of unanticipated changes. At this point the domains of adjustment support deriving necessary properties: Obviously, elements, links and decision space need to be scalable to handle quantitative aspects as work-load. Links between elements should be allowed to be established when needed. A scalable decision space adds and diminishes partners/sites that share the engineering problem. Modular process structures defining sub-tasks and goals allow efficient modification of structures and decision space. Modular structures of engineering models ensure the definition of development phases and sub-tasks therefore exchange, distribution is an option if needed. Interoperable structures ensure compatibility and standards [18]. At the level of elements role models (project manager, developer, tester etc.); communication rules; exchange formats, protocols and further aspects of standardization contribute to topology adjustment. The input and output services between (distributed) sites are also a matter of well defined standards and rules allowing efficient partnering. Software engineering processes are considered knowledge-intensive processes. The skills of actors contribute in as much the engineering model may manage knowledge, e.g. contain best-practises (RUP model) or knowledge and skill profiles of actors. Requirements that can be derived in order to respond and adapt to run-time dynamics relate to the context of elements, structural flexibility approaches but also se-process model adjustments. A selection has been illustrated. Understanding the factors that impact how process models are 721 chosen, how they are developed, how they evolve and how they can be adapted are therefore critical topics for managerial attention. Designing Distributed SE-Processes – Local versus Global Optimization A key challenge for distributed SE-processes referring to the decision area is to balance local and global optimization (E, F Table 2). In biologically inspired systems decentralization does not involve global coordination but local autonomy is postulated [12], [20]. Likewise actors as engineers, customers would act locally and the view is restricted to their immediate region. In terms of optimization this imposes a constraint upon the system (Figure 1). The question to ask is how a global process configuration can be achieved over n sites or engineering partners when commercial software is developed. Theoretically, each partner acts goal-oriented and is responsible for its own internal state and behaviour meaning by authority or contracting self-management is enforced. Practically, organisational and geographical aspects stand for both complexity and variety in process and product design in proprietary models employed by commercial firms. The process optimization does strongly depend on how well actors are able to understand each other and find ways to mutually satisfactory results. So tensions and mistrust will cut off many options for joint benefit [7], [3]. Therefore, we suggest coming to an achievable solution that can be locally accepted. Scenario E and F is an example for different levels of achievability. An expected top-down management decision to perhaps finish with a partner that serves as an equal engineering partner represents a very turbulent and unsecure environment for the (internal) team. Central coordination, redundant structures rather than local autonomy appear more fruitful in the light of loosing product and engineering knowledge. From a local focus redundancy in structures is an option to adapt as the process benefits in future (e.g. test-algorithms, de-bugging, documenting etc.). Hereby distributed autonomy is reduced; central control structures are established; thus the focus is to reach a local optimum for the team afraid to lose a partner. Based on the link between structure of product and organisations that participate in the development structural analogies represent the similarity between product and process design [11]. In other words decentralized processes require likewise product and process management structures for better adjustment (global optimization). Structural analogies are identified as key enabler for adaptability in related research [1], [7]. However, stability valuing trust and mutual benefit appear a basic must when designing distributed adaptable engineering processes that show overallefficiency. 4 Solution Approach – PEPMAD So far we have shown the enduring principles in software engineering; provided sub-views on three domains that trigger adjustment. We also showed our concept of achievability in terms of optimization. In this section managerial functions to support adaptive behaviour during run-time are outlined. Adaptation during run-time responds to environmental context of the software engineering process, e.g. new customer demand patterns. Hence changes need to be registered. Afterwards a decision needs to be taken what way to go. Hence alternatives need to be found and evaluated, e.g. additional testing, partnering with X or Z etc. Third, to put the decision into action requires reconfiguring the 722 process. Therefore, to enable the software process to be more adaptable three basic functions are required: (1) context management; (2) option management and (3) configuration management. The context management gathers information about decision area, structural topology and elements. It corresponds to process monitoring (Figure 2). If changes are significantly unanticipated the adaptation management is engaged. The evaluation of alternatives is criteria based. The suitable alternatives are subject for reconfiguration activities. The criteria that serve for evaluation of alternatives are based on relevant properties (as scalability, modularity, interoperability, redundancy…) that need to be enhanced in order to adapt the domains of adjustment to design the process more adaptable. The PEPMAD – Process Model PEPMAD – the Potsdam Evolutionary Process Model for Adaptable Design is a process model (Figure 2). In general, a process model is a central outline for a systematic development of a system being an organisational framework. It specifies the order and the kind of actions between system elements in focus [13]. The goal of PEPMAD is to define features that are essential for a given software engineering process to be more adaptable during run-time. The loop construction allows continuous course of activities and adaptation to new circumstances [27]. The evolutionary aspect is given by the integrated loop which implies self-optimization and continuous improvement [24]. The term applied to a software development system is a vision lent from biological context to underline the fact that the system itself has to recognize its needs and accordingly adapt its functions, retaining the useful and abolishing the disturbing elements [25]. Also, process adjustment is a continuous organizational task that should be integrated as soon as possible as software changes occur on the first day of development resulting in engineering process changes [8]. Input Output 1 process monitoring process reconfiguration 3 2 Criteria recommended actions Figure 2: PEPMAD – Potsdam Evolutionary Process Model for Adaptable Design PEPMAD @work Applying PEPMAD there are two choices to make: the process or scenario to analyze and the depth of analysis. With regard to the first the differentiation between single site locations versus distributed (open) environment is of interest. Distributed processes need to be modular and interoperable to facilitate the work, to attract partners that understand the task and to contribute to it. By contrast, in single locations problems are more often solved by face-to-face communication. A 723 special stage represents the start-up engineering organisation that has just entered the market with a software product. At this point the benefits of modularity may not (yet) be of interest but the capturing of process and product knowledge to (iteratively) optimize project performance. Based on the initial condition of the engineering process the evaluation of the decision area is linked with a weighting of important process qualities; for instance modularity and interoperability in distributed and others as self-optimization, knowledge management for start-up’s. A catalogue of about 50 aspects captures the current situation. The model provides conclusions on this to support adjustment strategies. The situation-based weighting of the criteria does influence the importance and order of recommendations that are directly linked with questions. An optional but recommended step especially in distributed environments is the communication analysis deploying KMDL® (Knowledge Modelling Description Language) to identify strategic positions in the communication network [15]. In addition to the questionnaire lived communication can be visualized that show established communication ways also bottle-necks. The following picture illustrates the PEPMAD contents (Figure 3). Situation-based questionnaire elements links Distribution of elements distributed single Weighting of criteria Modularity Scalability Answer 1 When? Comments Question 2 Answer 2 How? Comments procedures communication analysis ... gate-keeper bridge ... Structural topology Decision-area Question 1 recommondations actions Star Bridge Liason ... Gatekeeper ... Question n Answer n Who? Comments Isolation Context Management software procedure models Option Management Monitoring / Loop structure Reconfiguration Management Figure 3: PEPMAD in detail As said, the recommendations show options for better process adjustments. Options are directly linked with process models if they do contain the recommended activity. For instance, for a start up documentation may be recommended to ensure stability against loss of expertise; models supporting documentation as waterfall model would be listed. The idea is to additionally provide a choice of deployment packages that consist of established process models. Fifteen well-known process models have been pre-evaluated in terms of adaptation features. The best (most adaptable) results can be attained if the models can be integrated or combined to complete the recommendations. 5 Recent Developments PEPMAD is being established within a research project “IOSEW”. Software engineering processes of four software companies ranging from very small to medium sized companies provided the foundation for the process model. PEPMAD is tool-based covering the “simple run”. For a first- 724 time deployment three hours joining key personnel and consultant to ask and explain questions are necessary. Afterwards the simple cycle can easily be integrated into the business. The extended cycle deploying link analysis using KMDL® does require experts for data gathering and visualization; approximately 3 – 4 days are needed for a geographically distributed process between 2 to 3 partners. The rest of the section points at a selection of related recent research that either influences or contributes to the results. Autonomic computing (AC) presents autonomic elements that follow the well-known MAPE cycle: to monitor, analyze, plan and execute [22]. AC introduces a computer system. PEPMAD as said is a process model; nonetheless basic activities of the MAPE cycle are shared. PEPMAD in our opinion appears to be a special variation though the MAPE model is less specific. A range of work has aimed to examine the link between a product’s architecture and the characteristics of the organization that develops this product. The link in between is the process of production. The roots of this approach lie in the field of organization theory, where it has long been recognized that organizations must be designed to reflect the nature of the tasks that they must perform [23], [9]. In addition, discussions on flexibility concepts and methodologies, popular in the IT engineering world, termed agility, adaptation, changeability served as impulse though typically not agreed upon as they often reflect a specific level of consensus [1],[10]. 6 Conclusions Developers design software systems based on needs and constraints imposed by external factors. These constraints require organisations not only to adjust to them but also and especially to respond to them in shortest time. We have investigated the approach to build a self-adapting software engineering process to manage turbulences during process run-time. The concepts fill the gap between structure and function of the engineering process. PEPMAD postulates a couple of main principles: - Three domains of adjustments support overall process adjustment; namely elements, structural links and decision area. - Based on well defined domains of adjustment the goal is to use them all during run-time by planning well in advance. - To gather or buy information is one principle to diminish uncertainty. Given these characteristics, PEPMAD would also benefit from research in several related areas. For example dynamic software product lines and product reuse [17], [25] , automatic versus distributed human decision making, and further structural analogy research [29]. Nonetheless to cope with dynamics each planning phase should be supported by process models that support change during project run-time taking possible adjustment strategies into consideration. PEPMAD is a blueprint to better adapt to the additional emergence of unanticipated change. The feasibility has been proven for small to medium software developing companies. To ensure broad utilization and adoption the process model would benefit from more case studies, which probably would contribute to refinements. Of interest the generalization of results for open-source software engineering processes remains uncertain. Additionally, new developments in process models, standards that influence the enduring principle of software engineering appear challenging. 725 7 References [1] ANDRESEN, K.: Design and Use Patterns of Adaptability in Enterprise Systems, Gito, Berlin, 2006. [2] ANDRESEN, K., GRONAU, N., Managing change – Determining the Adaptabiltiy of Information Systems, European Conference on Information Systems (EMCIS) 2006 [3] BALASUBRAMANIAM, R., LAN, C., ANNAN, M., PENG, X., Can distributed Software be Agile?, Communications of the ACM, 49, 41 – 46, 2006. [4] BICOCCHI, N., MAMEI, M., ZAMBONELLI, F., Towards Self-organizing Virtual Macro Sensors, IEEE Computer Society, First International Conference on Self-adaptive and Self-organizing Systems (SASO), 2007. [5] BLAIR G., S., COULSON, G., BLAIR L., DURAN-LIMON, H., GRACE, P., MOREIRA, R., PARLAVANTZAS, N., Reflection, self-awareness and self-healing systems, ACM Press, 9 – 14, 2002. [6] BISHOP, J., HOORSPOL; N., Cross-Plattform Development: Software that Lasts, IEEE Computer, 39, 26 – 35, 2006. [7] BOEHM, B.: Making a difference in the Software Century, IEEE Computer 41, 32 – 38, 2008 [8] BOHNER, S., An Era of Change-tolerant systems, IEEE Computer 40, 100 – 102, 2007. [9] BURNS, T., STALKER, G., M., The Management of Innovation, Tavistock Publications, London, 1961. [10] COALLIER, F., Standards, Agility, and Engineering, IEEE Computer 40, 100 – 102, 2007. [11] CONWAY, M.E., How do Committee's Invent, Datamation, 14, 28-31, 1968 [12] CARILLO, L., MARZO, J.,L., VILA, P., MANTILLA, C., A., Ant Colonies for Adaptive Routing in PacketSwitched Communications Networks. In Eiben et. al. (editors) Parallel Problem Solving from Nature, 673 – 682, 1999. [13] FITZGERALD, B., Formalised systems development methodologies: a critical perspective, Information Systems Journal, 6, 3 – 23, 1996. [14] GHEIS; K., ULLAH KAHN, M., REICHLE, R., SOLBERG, A., Modeling of Component-Based Self-Adapting Context-Aware Applications for Mobile Devices, IFIP Working Conference on Software Engineering Techniques, 718- 722, 2006. [15] GRONAU, N. FRÖMING, J., Eine semiformale Beschreibungssprache zur Modellierung von Wissenskonversionen. In: Wirtschaftsinformatik, 48, 349-360. 2006 (in German). [16] GWANHOO, L., DELONE, W., ALBERTO-ESPINOSA, J., A., Ambidextrous Coping Strategies in Globally Distributed Software Development Projects, Communications of the ACM, 49, 35 – 40, 2006. [17] HALLSTEINSEN, S., HINCHEY, M., SOOYOUNG, P.; SCHMID, K., Dynamic Software Procuct Lines, , IEEE Computer 40, 93 – 95, 2007. [18] HANISCH, F., STRASSER, W.: Adaptability and interoperability in the field of highly interactive web-based courseware. In: Computers & Graphics, 27, 2003; 647-655 [19] HAREL, D., Can Programming Be Liberated, Period? IEEE Computer 41, 28 – 37, 2008. [20] HERRMANN; K., WERNER, M., MÜHL, G., A Methodology for Classifying Self - Organizing Software Systems. International Transactions on Systems Science and Applications, 2 (1); 41 – 50, 2006. [21] HIGHSMITH, J., COCKBURN, A., Agile Softwaer Development: the business of innovation, IEEE Computer, 34, 120 – 127. [22] KEPHART, J. O., The Vision of Autonomic Computing, IEEE Computer 36, 41 – 52, 2003. [23] LAWRENCE, P., R., LORSCH, J.W., Organization and Environment, Haward Business School Press, Boston, MA, 1967. [24] LEHMANN, M., M., Feedback in the software development process, Information and Software Technology, 38, 681 – 686, 1996. [25] MADAM HOMEPAGE, Mobility and ADaptation enAbling Middleware, http://www.intermedia.uio.no/confluence/display/madam/home (28.07.2008) [26] MADHAVJI, N., H., The Process Cycle [Software Engineering], Software Engineering Journal, 6, 234 – 242, 1991. [27] NUSEIBEH, B, Weaving together Requirements and Architectures, IEEE Computer, 34, 115 – 119, 2001. [28] OSTERWEIL, L., J.; GHEZZI, C.; KRAMER, J.; WOLF, A.,L.: Determining the Impact of Software Engineering Research on Practice, Computer, IEEE Computer 41, 2008. [29] V. HIPPEL, E., Task Partitioning: An Innovation Process Variable, Research Policy 19, 407 – 418, 1990. 726 REQUIREMENTS ENGINEERING FOR HYBRID PRODUCTS AS BUNDLES OF HARDWARE, SOFTWARE AND SERVICE ELEMENTS – A LITERATURE REVIEW Marina Berkovich, Sebastian Esch1, Jan Marco Leimeister2, Helmut Krcmar1 Abstract In this paper we compare different approaches and show the need for systematic requirements engineering for hybrid products beyond disciplinary boundaries. Hybrid products consist of combinations of hardware, software and service elements. The purpose of this paper is to report on a literature review on requirements engineering for hybrid products. Each academic discipline involved (software engineering, product engineering and service engineering) has a different view on requirements engineering. The goal of the literature review is to discover how the approaches of each discipline are able to cope with requirements engineering for hybrid products. 1. Introduction Increasing competition and increasing technological development result in high time-, cost- and development pressure. These trends induce the need for differentiation for most companies [32, 34]. Thus companies are compelled to individualize their products and services regarding to customer needs. The companies’ goals are to improve the innovation processes continuously and to increase their ability to determine, to track and to cover customer-needs better than competing companies. The improvement of the ability to innovate is an essential factor for the prosperity and growth of companies [10]. Hauschildt [14] defines innovations as qualitative new products or methods, which noticeably differ – however this is measured – from the prior state. The novelty has to be realized. The sole generation of a new idea is not sufficient; sale or utilization distinguishes between innovation and invention. Therefore companies develop more and more complex solutions. These complex solutions consist of combinations of product-, software and service elements. The distinction between product and service becomes blurred and a so called hybrid product emerges [23]. A hybrid product is a 1 Technische Universität München, D-85748 Garching b. München, Boltzmannstr. 3 2 Universität Kassel, D-34127 Kassel, Nora-Platiel-Str. 4 727 complex solution consisting of several parts, usually hardware, software and service elements, which are not easily, recognized as single parts, but different characteristics of these three parts define the hybrid product [23]. Especially the development of hybrid products is different because of the high number of sub-elements, the high level of technological integration and the degree of customer-integration [23, 37]. But in the literature the development of products and services are elaborated separately. Hybrid products have some differences compared with other areas. Hybrid products are more complex as products consisting of one part as hardware, software or service element [23]. The trend to customer individuality is also one of the important aspects characterizing these products. The lifecycle of hybrid products is considered differently as traditional products. The company that builds hybrid products does also offer services in combination with the product, what means in practice that the later operation of the product is also important. The operator model changes from “build and forget” to “build, operate & advance”. Ultimately also the business model of the company changes to a “pay per use” philosophy. The individual components of these hybrid products have different development and manufacturing periods and are developed by different functional areas within a company. These aspects cause various challenges for companies. 2. Requirements Engineering Requirements engineering (RE) is a crucial aspect for a successful development of products and software [5, 24]. A dominant understanding of RE in software engineering defines requirements engineering as consisting of requirements analysis, prioritization and negotiation of requirements, the activities to control and to administer requirements of a system under development. The change- and realization-management and the validation of requirements are also parts of RE. Strong evidence that RE is especially important gives [33] which states that “surveys which have been carried out so far suggest that, for large hardware/software systems, about 15% of the total budget is taken up by requirements engineering activities.” All changes of requirements cause modifications of parts of the solution and increase development costs. Requirements engineering has to capture and to map the origin and the context of changes. Furthermore the impact of changes should be made assessable. Another important mission of tracking changes is to anticipate future changes of requirements. The development of hybrid products is influenced by the disciplines product-, software- and service-engineering. Thus, the development of hybrid products needs a special designed process of requirements engineering. In order to develop the requirements engineering for hybrid products we analyze whether the RE in each of the discipline is appropriate for hybrid products. 3. The State of the Art of RE in the Literature Most development process models in product engineering, software engineering and service engineering consider requirements engineering only during the first phases of the overall development process. The goal of the requirements engineering’s activities is to elicit and specify the requirements. The fact that missing or incorrect requirements have negative effects on the success of the product is widely recognized [5, 24]. 728 The development process of hybrid products involves different stakeholders and components. In the following sections we describe and compare different approaches in product engineering, software engineering and service engineering, each of them specialized in developing mainly one component: (physical) products, software or services. 3.1. Analyzed aspects In software engineering requirements engineering has already been accepted as an independent discipline and is done systematically. Many concepts and methods for handling of requirements have already been elaborated there. The development of process models has been elaborated there, which is especially important for hybrid products [23]. From the requirements engineering in software engineering we derived the aspects based on the phases of the requirements engineering process and proper questions listed below: • Requirements elicitation: How are the requirements elicited? What methodical support is available? • Requirements analysis: How are the requirements analyzed? How are the requirements translated to the language of the developer? What methodical support is available? • Requirements negotiation: How are conflicts between requirements resolved? Are priorities assigned to requirements? What methodical support is available? • Documentation: How are the requirements documented? Which information is documented? • Validation: How are the requirements validated for completeness, correctness and consistency? • Change management: How are changes of requirements managed? Especially the next aspects are important for the literature review: • Systematic requirements engineering: whether the requirements engineering is evaluated in all phases of the development process. • Methods for formal specification of requirements: are there methods for a formal specification of requirements? • Methods for requirements elicitation are described: are the methods of requirements elicitation described? • Tool-support: are there tools supporting the process of requirements engineering • Documentation and management of changes of requirements: are changes of requirements documented and is the change management process defined? • Whether all phases of the innovation process are covered: are all phases of the innovation process considered in requirements engineering? • Whether hybrid products are captured: does the process of requirements engineering consider hybrid products? 3.2. Sources of RE-approaches: Product Engineering Jung [20] defines a requirement as a request that a product fulfills certain properties or functions. A requirement can be posed consciously or unconsciously by any person that has an interest in justifying the requirement. A requirement consists of a describing attribute and a defining value (quantification). 729 Most development approaches in product engineering take requirements engineering into consideration [1, 3, 7, 9, 11, 16, 21, 24, 27, 35]. Some examples illustrate the common views of these approaches. Cross [7] suggests a goal tree, which is used to vaguely collect the initial requirements. During the development process the requirements are refined as the problemunderstanding of the customer and engineers increases. Ehrlenspiel [11] defines an iterative process for eliciting the requirements. He suggests using checklists to support the customer interviews and to overcome misunderstandings between the customer and the engineer. Lindemann [24] has developed a set of methods for requirements elicitation. These methods are not used in a predefined order and can be applied repeatedly. Examples for methods involving the customer are: checklists, mind maps and questionnaires. A sequential process model is suggested by Pahl [27]. He states that the engineer has to extract the requirements from the customer’s wishes. He also recognizes that the customer is often not able to express his requirements appropriately, but he does not suggest methods for eliciting the requirements. Ulrich [35] collects the requirements in hierarchical weighted lists. The author states that it is important to reveal implicit customer-needs and that a common product-understanding between customer and engineer is absolutely necessary. Most authors demand that changes of requirements are documented in form of requirement-lists. The origin and cause of changes is hardly documented. Interdependencies between requirements are captured by creating links between requirements, but an anticipatory handling of requirements is missing. The analysis of the mentioned literature revealed that RE in product engineering is mostly restricted to the early phases of the development process. During the late phases RE does not seem to play a substantial role. Most of these approaches state that the customer plays a central role during the entire development process, but type and degree of customer integration into the development process varies. The integration of the customer into the process of requirements elicitation is emphasized, but not in later phases [20]. The methods of product engineering deal only with requirements for products. They do not mention that a product can consist of hardware and software or even of a bundle including services. The inclusion of services into the development process is not mentioned. 3.3. Sources of RE-approaches: Software Engineering The term “requirement” is defined by IEEE-Standard IEEE 610.12-1990 [17] as follows: “A requirement is a (1) condition or capability needed by a user to solve a problem or achieve an objective; (2) condition or capability that must be met or possessed by a system or system component to satisfy a contract, standard, specification, or other formally imposed documents; (3) documented representation of a condition or capability as in (1) or (2)”. In contrast to the definition of product engineering, this definition considers the role of the user. A functionality does not exist on its own, but the user needs it, to fulfill his tasks. Additionally, this definition states the origin of the requirements. Because the user will use the finished software, he is the main source of requirements. Therefore the integration of users into the requirements elicitation is a decisive factor for the success of software-projects [22]. Boehm [4] defines requirements engineering as follows: „Software requirements engineering is the discipline for developing a complete, consistent unambiguous specification – which can serve as a 730 basis for common agreement among all parties concerned – describing what the software product will do (but not how it will do it, this is to be done in the design specification)“. Figure 1: RE process (according to [33]) In Figure 1 the RE process is depicted according to Sommerville and Kotonya [33]. The authors give the following definition of the process of requirements engineering: “A requirements engineering process is a structured set of activities which are followed to derive, validate and maintain a systems requirement document. Process activities include requirements elicitation, requirements analysis and negotiation and requirements validation.” As the arrows in Figure 1 indicate requirements engineering is not a linear process but an iterative process. The outcome of the RE process is the requirements document and the system specification respectively. The main processes are described below: • Requirements elicitation: The task of requirements elicitation is the identification of requirements’ sources and the elicitation of requirements according to the identified stakeholders and other requirements’ sources [28]. The methods applied for elicitation of requirements are interview, workshop, observation and perspective-based reading, also brainstorming, prototyping, Mind Maps and checklists [28]. Also [33] suggest interview and observation as methods for eliciting the requirements. Sources of requirements among others can be users, domain knowledge, existing systems and regulations. • Requirements analysis and negotiation: The goal of requirements analysis and negotiation is to solve conflicts that exist between requirements and eventually get a consistent set of requirements [28]. Conflicts exist because different stakeholders have different interests in the system and different views on the system. Mostly the win-win-approach is applied to solve the conflicts [28]. • Requirements documentation: Pohl [28] suggests natural language based and model based forms of specifications. Model based documentation is based on modeling languages such as UML. To express the importance of each requirement, priorities are assigned to requirements. There exist many methods for prioritizing requirements. • Requirements validation: The goal of requirements validation is to check if the requirements specify the system as the customer wants and needs it. The methods for validation presented by Sommerville and Kotonya [33] are reviews, prototyping and testing. Pohl [28] suggests inspection, reviews, walkthroughs, perspective-based reading and prototypes. 731 Aurum and Wohlin [2] give a comprehensive compilation of practices used in RE in software engineering. In this paragraph we give a short overview of these practices. The methods requirements elicitation, specification and modelling mean “understanding the needs of stakeholders, eliciting requirements, modelling and collecting them in a repository” [2]. Here we see that software engineering is aware that there are several stakeholders with different interests in the product. To resolve these conflicts the activities of negotiation and prioritization are introduced [28]. Prioritizing requirements “assists project managers with resolving conflicts […], plan for staged deliveries, and make necessary trade-off decision” [2]. Relationships between requirements determine factors for choosing the way of software development work [8]. In order to obtain a connection between requirements engineering, design, implementation and test, requirements traceability is introduced. Requirements traceability is defined as “the ability to describe and follow the life of a requirement, in both a forwards and backwards direction” [13]. Basing on the traceability the impact analysis tries to identify the parts of a system to be changed, if a requirement is changed and to identify the consequences on the system if the change is done [19]. We conclude that RE in software engineering is highly elaborated and many methods and process models are known. Software engineering sees RE as a continuous activity which is performed throughout the entire development process, while product engineering considers RE as a phase at the beginning of the development. 3.4. Sources of RE-approaches: Service Engineering The term service engineering is defined by Gill [12] as “the systematic development of predominantly technical services by deploying engineering methods, practices and by using tools of the engineering design field”. According to Schmitz [30] service engineering in large part is handled by marketing divisions. Schmitz [30] sees requirements engineering as a task carried out by qualitative marketing research. To elicit the requirements the customer should imagine the service and should then express a hypothetical evaluation. Ramaswamy [29] understands services as transaction processes. He suggests separating the quality of services into quality of service design and quality of service delivery. For the process of developing services, the requirements to the services are crucial. The process model of Ramaswamy consists of various steps. In the step “Defining Design Attributes” the key-customers and their expectations and requirements are elicited and prioritized. So we can see that the elicitation of requirements is intended, but no precise methods are provided. The management of requirements is not mentioned. The process model of Schneider et al. [31] envisions the elicitation of customer requirements during the concept phase. Methods and tools for RE are not provided. We conclude that there are process models for service engineering. These models describe the process on a very high level; hence tangible methods are not given. We can also show that most approaches mention the customer as a source of requirements. According to Zahn [36] the integration of the customer is an important factor for the development of services. But precise 732 methods and applicable tools can hardly be identified and therefore the role of RE in Service Engineering is very vague. 4. Conclusion The importance of RE to successfully conduct development processes has been recognized by all three disciplines of product-, software- and service-engineering. In software engineering RE is applied throughout the development process and there are a large number of methods for eliciting and managing requirements. In product engineering RE is also widely accepted. The handling of requirements is integrated in the engineering-process. Most approaches consider RE only during the first phases of the innovation process. Origin, context and period of validity of requirements are not captured. Service engineering is still a young discipline and lacks support for systematic approaches [6, 15]. There exist some general process models, which mention RE, but offer no tangible methods. The abstraction level of these models is very high, so they are not relevant for practical use. Methods for elicitation and handling of requirements are treated only rudimentarily. In Figure 2 some aspects of RE are set in connection to the RE process of the three disciplines. The criterions are derived from the aspects covered in the paper. We can see that the RE in software engineering is most elaborated and RE in service engineering has the biggest gaps. product engineering software engineering [2, 18, 25] systematic requirements engineering methods for formal specification of requirements methods for requirements elicitation are described tool-support is existing changes of requirements are documented and managed all phases of the innovation process are covered hybrid products are captured partially covered not covered Figure 2: aspects of requirements in the three disciplines 733 service engineering [6, 29, 31] In Figure 2 we can see that especially the aspects that are most relevant for hybrid product are not covered by the existing approaches of RE. Also tool-support and methods for formal specification of requirements should be improved. Hybrid products need customer orientation [23, 37]; to guarantee that the customer-need is satisfied, the customer has to be integrated into the whole development process, but none of the approaches covers all phases of the innovation process. Services are a part of the hybrid product [23, 37], but the RE in product development and software engineering does neither mention the integration of services nor the parallel development of them. Additionally the RE approaches of product engineering do not cover software parts of products. In the RE of software engineering hardware is considered as already existing and is taken into account as an unchangeable “system context”. Because of this lacks in the approaches all the four circles for “hybrid products are captured” in Figure 2 are selected as “not covered”. 5. Limitations and Outlook for Future Work This literature review covered only the most dominant literature found in these domains. It could only present the most significant differences and deficiencies of RE for the development of hybrid products – more detailed and thorough analyses are required. Future work should develop models, modelling methods and supporting tools to cover the RE for hybrid products. It is particularly important to support all phases of the innovation process. Therefore models have to capture changes of requirements and interdependences between requirements and the methods have to deal with them accordingly. To meet the challenges of RE for hybrid products, models are needed, that are capable of treating the requirements and the product as a whole. The models must also be able to capture service packages and its interplay of hardware-, software- and service components along the entire development process appropriately. By comparing the existing approaches and industrial practices it should be possible to develop a transdisciplinary understanding of requirements and its handling. Future research has to answer - amongst others - the following questions: Which methods and models are used by the RE in practice? Which methods and models presented in the literature are used in practice? Which are success and failure factors of RE in practice? Which activities must be supported by a process model for RE in the field of hybrid products? Is an integrated RE supporting all phases of the innovation process possible, reasonable and applicable? 6. References [1] AHRENS, G. Das Erfassen und Handhaben von Produktanforderungen, Dissertation der TU Berlin, Berlin, 2000. [2] AURUM, A. WOHLIN, C. Requirements Engineering: Setting the Context, in: Engineering and Managing Software Requirements, Springer, Heidelberg, 2005. [3] BREIING, A., FLEMMING, M. Theorie und Methoden des Konstruierens, Springer, Berlin, Heidelberg, 1993. [4] BOEHM, B.W. Guidelines for verifying and validating software requirements and design specifications, EURO IFIP 79, North Holland 1979, S. 711-719 [5] BROOKS, F. P., JR. “No Silver Bullet: Essence and Accidents of Software Engineering, in: Computer, Vol. 20, No. 4, April 1987, pp. 10-19. 734 [6] BULLINGER, H.-J., SCHEER, A.-W. Service Engineering – Entwicklung und Gestaltung innovativer Dienstleistungen, 2nd Edition, Springer, Berlin, 2005. [7] CROSS, N. Engineering Design Methods, Wiley, Chicester, 1996. [8] DAHLSTEDT, A. G., PERSSON, A. Requirements Interdependencies: State of the Art and Future challenges, in: Engineering and Managing Software Requirements, Hrsg.: Aurum, A., Wohlin, C., 1st Edition, Springer, Berlin, 2005. [9] DANNER, S. Ganzheitliches Anforderungsmanagement, Shaker, Aachen, 1996; Diss. der TU München, 1996. [10] EDGETT, S. J., COOPER, R. G. New Product Development, Ancaster, Product Development Institute, Ontario 2005. [11] EHRLENSPIEL, K. Integrierte Produktentwicklung, Hanser, München, 2003. [12] GILL, C. Architektur für das Service Engineering zur Entwicklung von technischen Dienstleistungen, 1. Auflage, Shaker, 2004. [13] GOTEL, O.C.Z., FINKELSTEIN, C.W. An analysis of the requirements traceability problem, in: Proceedings of the First International Conference on Requirements Engineering, Colorado Springs, CO., 1994. [14] HAUSCHILDT, J., SALOMO, S. Innovationsmanagement, 4td Edition, Franz Vahlen GmbH, München, 2007. [15] HERRMANN, T., KLEINBECK, U., KRCMAR H. Konzepte für das Service Engineering: Modularisierung, Prozessgestaltung und Produktivitätsmanagement, 1st Edition, Physica, Heidelberg, 2005. [16] HUMPERT, A. Methodische Anforderungsverarbeitung auf Basis eines objektorientierten Anforderungsmodells, HNI-Verlagsschriftenreihe, Paderborn, 1995. [17] IEEE Standard Glossary of Software Engineering Terminology, The Institute of Electrical and Electronics Engineers, New York, 1990, IEEE Std. 610.12-1990. [18] JACOBSON, I., BOOCH, G., RUMBAUGH, J. Unified Software Development Process: The complete guide to the Unified Process from the original designers, Addison-Wesley Longman, Amsterdam 1999. [19] JÖNNSON, P., LINDVALL, M. Impact Analysis, in: Engineering and Managing Software Requirements, Hrsg.: Aurum, A., Wohlin, C., Springer, Berlin, 2005. [20] JUNG, C. Anforderungsklärung in interdisziplinärer Entwicklungsumgebung, Dr. Hut, Aufl. 2006. [21] KRUSE, P.J. Anforderungen in der Systementwicklung, VDI-Verlag, Düsseldorf, 1996. [22] KUJALA, S. M., KAUPPINEN, L., LEHTOLA, KOJO, T. The role of user involvement in requirements quality and project success, in: 13th IEEE International Conference on Requirements Engineering, Paris, 2005, pp. 75 – 84 [23] LEIMEISTER, J. M.; GLAUNER, C. Hybride Produkte – Einordnung und Herausforderungen für die Wirtschaftsinformatik, in: Wirtschaftsinformatik, Vol. 50, No. 3, 2008 . [24] LINDEMANN, U. Methodische Entwicklung technischer Produkte, Springer, Berlin, Heidelberg, New York, 2005. [25] MARSCHALL, F., SCHOENMARKERS, M. Towards model-based Requirements Engineering for web-enabled B2B Applications, in: Proceedings of the 10th Annual IEEE International Conference and Workshop on the Engineering of Computer Based Systems (ECBS), 2003, S. 312 – 320 [26] MEIREN, T. Service Engineering – Systematische Entwicklung von kunden- und mitarbeiterorientierten Dienstleistungsprodukten, in: Technologiemanagement in der Praxis: Forschen und Anwenden, Hrsg.: Spath, D., Fraunhofer IRB , Stuttgart, 2006. 735 [27] PAHL, G., BEITZ, W., FELDHUSEN, J., GROTE, K.H. Konstruktionslehre, Springer, Berlin, Heidelberg, New York, 2003. [28] POHL, K. Requirements Engineering. Grundlagen, Prinzipien, Techniken, 1. Auflage, Dpunkt Verlag, 2007. [29] RAMASWAMY, R. Design and Management of Service Processes, Addison- Wesley, Massachusetts, 1996. [30] SCHMITZ, G. Die Ermittlung der Kundenanforderungen an industrielle Dienstleistungen, in: Zeitschrift für Planung, 2000, Nr. 2, pp. 195-215 [31] SCHNEIDER, K., DAUN, C., BEHRENS, H., WAGNER, D. Vorgehensmodelle und Standards zur systematischen Entwicklung von Dienstleistungen, in: Service Engineering: Entwicklung und Gestaltung innovativer Dienstleistungen, 2. Auflage, H.-J. Bullinger, A.- W. Scheer, Springer, Berlin, 2006, pp. 113-138. [32] SIMONIS, G. Die Zukunftsfähigkeit von Innovationen: das Z-Paradox., in: D. Sauer; Ch. Lang. Paradoxien der Innovation, Campus, Frankfurt/New York, 1999, pp. 266 [33] SOMERVILLE, I.; KOTONYA, G., Requirements Engineering: Processes and Techniques Wiley & Sons, 1998. [34] SPATH, D., DILL, C., SCHARER, M. Vom Markt zum Markt, LOG_X, Stuttgart, 2001. [35] ULRICH, K. T., EPPINGER, S. D. Product Design and Development, McGaw-Hill, New York, 2003. [36] ZAHN, E., SPATH, D., SCHEER, A.-W. Vom Kunden zur Dienstleistung - Methoden, Instrumente und Strategien zum Customer related Service Engineering, Frauenhofer IRB Verlag, Stuttgart, 2004. [37] ZELLNER, G. Gestaltung hybrider Wertschöpfung mittels Architekturen – Analyse am Beispiel des Business Engineering. in: Wirtschaftsinformatik, Vol. 50, No. 3, 2008. 736 REENGINEERING DEPRECATED COMPONENT FRAMEWORKS: A CASE STUDY OF THE MICROSOFT FOUNDATION CLASSES Robert Neumann, Sebastian Günther, Niko Zenker1 Abstract In today’s application engineering, the implementation of frameworks and related technology boosts development quality and reduces related effort. Framework functionality embodies expert knowledge and is driven towards reuse. While stable from a conceptual point of view, technological changes require constant adaptation and reengineering. This article presents overall framework engineering principles and practices (FEPP) and shows their concrete application using the example of the Microsoft Foundation Classes. Abstracting from the case study, the focus of this work is upon introducing particular methods for how to cut down on the complexity of maintenance projects by considering the FEPP during framework development. 1. Motivation As offsprings of the object-oriented programming paradigm, component frameworks in the past were subject to intensive research that reached its peak in the 1990s. Economies of frameworks were derived from framework engineering principles which have established a collection of concepts and best practices describing how to efficiently develop software frameworks. Even though framework development, maintenance, and discontinuance are well analyzed phases in the framework lifecycle, the reactivation of an already discontinued framework seems to be a rather unexplored discipline. A very successful and well known example in the domain of Windows application development is the Microsoft Foundation Classes (MFC). However, as with the introduction of the .Net framework in 2002 Microsoft changed its focus away from native towards managed development, the MFC were decided to be not longer maintained. Contrarily, the number of Independent Software Vendors (ISVs) outside the managed world was still significant, whereby some of them had established gigantic code bases in native C/C++ code with the MFC interfacing between their application and the Windows operating system. Those ISVs were dependent on the MFC being updated to expose new Windows features as they wanted to support their products even on modern Windows versions. Visual Studio 2008 (released in October 2007) for the first time after more than ten years contained a major set of updates for the MFC demonstrating an attempt to bring the MFC back to the market. 1 Otto-von-Guericke-Universität Magdeburg, Universitätsplatz 2, 39106 Magdeburg 737 The resurrection of the MFC moved the question of how to assess the maintainability of a “reactivated” framework into the focus of our investigations. Using the MFC, we investigated places in a framework that are sensitive to future refinement projects. We analyzed how well the architecture of the framework supports maintenance and what can be done to reduce the intensity in effort those projects require. A resulting catalog of refinement points compares the architecture of a framework to framework engineering principles and practices (FEPP) and discusses how deviations from the FEPP might impact the complexity at which future maintenance projects are possibly driven. The catalog depends on a study that was conducted in cooperation with the Microsoft Visual C++ team in 2008. The paper is organized as follows: The second section gives an overview of the basics of software frameworks, clarifies terminology, and discusses the significance of frameworks. It follows a listing of framework key characteristics which represent the starting point for our further explanations. Based on this, the third section introduces an approach for how to improve the maintainability of a framework using the FEPP. Thereby, the focus is upon demonstrating that perspicacious development embodies the foundation for easy-to-accomplish future maintenance. 2. Backgrounds of Framework Engineering The term ”software framework” generally refers to a high-level design that is abstract enough to be applicable to various problems of an application field. It can be used to bootstrap concrete implementations which are based on a common architecture [10]. Referring to Taligent Inc., frameworks are defined as “a set of prefabricated software building blocks which programmers can use or customize for specific computing solutions” [15]. Thereby, Taligent emphasizes that a framework captures the problem-solving expertise necessary to solve a particular class of problems. Companies can use frameworks to obtain such problem-solving expertise without having to fully develop it. Furthermore, frameworks provide a well-designed infrastructure, so that when new pieces are created, they can be added easily or substitute old pieces with minimal impact [14]. All of the above definitions share the idea of two basic aspects: Firstly, a framework provides the users with a certain set of functionality and secondly, frameworks allow the users to customize or modify this functionality. Framework reengineering is becoming evidently a vital activity in the software industry [4]. Its goal is to understand, analyze, and improve frameworks to form new framework versions. Reengineering includes tasks, such as refactoring (changes to the appearance of code), redesign (changes to the architecture), and refinement (new functionality, bug-fixing, or performance improvements). Since the reengineering process can be triggered as part of the software lifecycle -especially the maintenance phase-, we will in the remainder of this work also refer to it as “framework maintenance”. In the following, we will further discuss the significance of frameworks and show their different key characteristics. 2.1. Significance of Frameworks Frameworks support the application development process by providing prefabricated solutions to reoccurring problems. They capture and leverage the expertise of domain experts in a software component that can be included by other application programs. The use of frameworks can result in a dramatically shortened development time with fewer lines of code. This is because several common aspects of the applications are already captured by the framework. The effort required for maintaining applications can also be significantly reduced when multiple applications are built on 738 top of one framework [8]. In case of modifications or fixes being made to the framework, applications implicitly benefit from the changes, since those are automatically propagated through the framework. The applications that are built from the framework follow the same design and share the same code base; thus frameworks provide consistency and therefore a better integration across platforms. Above all, using frameworks is related to two major aspects: Reuse and Quality. Thereby, not only the implementation of a system, but also the design of the system is reused. Since the design of successful frameworks has already proven to be efficient and has run through an in-depth testing and refinement process, it forms a quality base for developing new applications. Once a framework has been developed, the problem domain has already been analyzed and a working design and implementation have been produced [1]. 2.2. Framework Key Characteristics With the term “Framework Key Characteristics” (FKC) we refer to properties that are commonly embodied by successful frameworks to a relatively high extent. The FEPP relate to particular FKC by describing ways of how to implement them. Both FEPP and FKC will again be mentioned together, when addressing how they can help reducing maintenance. The design and the functionality of a framework incorporate the following FKC: Reusability means that software and ideas are developed once and then used to solve multiple problems. This leads to an enhanced productivity, since applications can now be built on top of already existing solutions for generic problems [11]. Ease-of-Use encompasses the application developer’s ability to use the framework [8]. The framework should be easy to understand and facilitate the development of applications. Ease-of-use is also established by providing a detailed documentation including descriptions of the framework’s functionality as well as sample applications demonstrating how to solve easy problems using the framework. Extensibility means that new components or properties can be added easily to the framework. Extension typically is achieved by deriving from existing classes (inheritance) or adding customized components to the framework (composition). So called hook methods provide a way to extend stable interfaces with new functionality. This is important to “ensure timely customization of new application services and features” [6]. Flexibility describes a framework’s ability to be used in more than one context. The more problems the framework can be applied to, the higher the problem domain coverage. Very flexible frameworks are reused more often than frameworks with a lower degree of flexibility [11]. Completeness refers to a framework’s ability to cover all possible variations of a problem. Since even the best frameworks can never provide solutions to all possible problems with an arbitrary level of detail, it makes it consequentially impossible for frameworks to be complete. However, a certain degree of completeness can be achieved and is referred to as “relative completeness” [8]. Relative completeness encompasses default implementations for the abstractions within a framework, so that these abstractions do not necessarily have to be implemented by the user. Consistency is a characteristic which reflects that the rules and conventions which determine the framework are followed throughout the whole framework without exception. Consistency in 739 frameworks speeds up the developers’ understanding of the framework and helps to reduce errors in its use [11]. Consistent frameworks always follow the same interface conventions and class structures as well as the same notations for naming variables, functions, and classes. During our investigations, we found out that the MFC incorporate those characteristics to a very high extent. Even though the MFC core was designed more than 17 years ago, it considers the FKC in an exemplary fashion. Ease-of-use, for example, is achieved by providing an elaborated interface, a very comprehensive and always up-to-date documentation, and a complex, but easy-touse development environment. On the other hand, due to their age, the MFC do not consider certain aspects of the object-oriented programming paradigm, such as Polymorphism. An example of why this can be disadvantageous will be given in section three. In conjunction with the problem of maintenance, it will be discussed pros and cons of the way MFC incorporates the FKC. 3. Addressing Framework Maintenance A study conducted by the National Bureau of Standards estimated that 60% - 85% of the total software development cost is due to maintenance [5]. These numbers are determined mostly by errors that were not found during operational testing and thus needed to be fixed at the customer’s side, generally an expensive undertaking. Therefore, it seems reasonable to attempt a reduction of potential future maintenance efforts from the very beginning. Certainly intensive and exhaustive testing prior to the release plays a major role, but maybe as important as that is to initially design the framework in a fashion that makes future engagements easier to accomplish. The incorporation of best practices, such as design patterns or object-oriented methods in general, standards, guidelines, and substantiated documentation can significantly support the creation of better preconditions for future maintenance and extension development. The catalog we have derived from the MFC case study distinguishes the reduction of framework maintenance into two core activities: preventing and enabling maintenance. Preventing maintenance refers to an attempt to reduce the likelihood of future maintenance while enabling maintenance encompasses a concept that makes the framework accessible for future maintenance. 3.1. Preventing Maintenance Preventing maintenance represents a concept to increase the overall quality of a framework while reducing the likelihood of future maintenance. The quality of a framework is determined by the degree to which it incorporates previously mentioned FKC on the one hand and by the amount of errors it contains on the other hand. Even though the number of bugs can be reduced by instantiating methods of testing, the integration of FKC can further reduce the likelihood of erroneous behavior. The following four FEPP describe how to achieve a relatively high saturation of the FKC in a framework that help cutting down on the likelihood of maintenance. 3.1.1. Documentation The documentation of a framework represents a driver that can make a critical contribution to the overall success of the framework. Ease-of-use and reusability can be established by providing a detailed documentation including descriptions of functionality as well as sample applications demonstrating how to solve easy problems with the framework. Without documentation, the only way for application developers to understand how the framework is used would lie in trying to comprehend the way the framework is used from the source code. However, if there was not even the source code available, the value of the framework to the framework applicants would be very 740 low. With the Microsoft Developer Network (MSDN)2, Microsoft provides a comprehensive and highly up-to-date documentation for the MFC that is always accessible over the internet. 3.1.2. Contracts One of the key problems when working with frameworks, such as MFC, is that, provided the inputs to a function or component, the framework users do often not receive the output they expected. In other words: the perceived behavior of a function might sometimes differ in some way from the behavior that the users anticipated. Due to this misunderstanding, users often open bug fixing enquiries on the vendors’ side, whereby the vendors have two possibilities of dealing with them: Either they modify the way in which the respective functionality is exposed by the framework or they refine the documentation and clarify how to correctly use this part of the framework. To avoid this misunderstanding between component designers and component users from the very beginning, contracts provide a way of determining beforehand, whether a class or a component used within a certain context generates a correct result [2]. They “specify preconditions on participants to establish the contract and the methods required for the instantiation of the contract“ [12]. While adding a clear communication between the framework users and the framework designers, contracts can help reducing the frequency at which users open bug fixing enquiries that aim at clarifying the way hooks3 are used. Contracts can help to enhance the ease-of-use and thus the reusability FKC of a framework and allow a slimmer documentation. Furthermore, they can improve the flexibility of the framework architecture making maintenance projects easier to conduct. Regarding MFC, we could identify only a weak contractual behavior. Behavioral contracts, for example, are incorporated by the macros VERIFY, ENSURE, and ASSERT. In case of an error, the MFC application terminates with a runtime exception, whereby a dialog states the problem that caused the shutdown. Even though this kind of contractual behavior seems to comply with the idea of behavioral contracts, it is only very inchoate and can be easily circumvented. MFC’s exception handling mechanisms can trivially be bypassed by just overriding and reimplementing the function that wraps a macro accordingly. To split the contract of the base class, it is enough to just not implement previously mentioned macros in the overridden function. 3.1.3. Standard Conformity Standard conformity incorporates the flexibility and reusability characteristics of frameworks. Furthermore, standards can help improving the consistency of the overall framework architecture and code. Incorporating standards not only improves the product quality (standards are geared to principles and best practices), but also can help improving the flexibility of the framework. Due to specific aspects of the Windows operating system, Microsoft had to rely on an extended C/C++ standard in its compiler. Standards allow code to become independent from its base technology. Standardized code should run on every platform that complies with the standard and enables software developers to use their products with a variety of base technology distributions of multiple vendors. Since the MFC exclusively targets the Microsoft Windows platform, it stands to reason that MFC does not support the development of platform-independent code. Other compilers on the Windows 2 3 http://www.msdn.microsoft.com Hooks are understood here as the means to perform customization to a framework. 741 platform do not explicitly support the MFC; a fact that binds the MFC developer community to the Microsoft compiler. In case of a specific compiler becoming superior to the Microsoft compiler by, for example generating particularly high-performing executables, MFC applications could not benefit from this. Furthermore, bugs within the Microsoft compiler could not be by-passed by simply switching to another compiler that does not show these bugs. An alternative solution to circumvent this problem could encompass concentrating all MFC-related client code in one module. This module can then be compiled with the Microsoft compiler while the MFC-independent rest of the code is passed to a compiler that can achieve better performance. However, from the application developers’ perspective, an MFC that works without any Microsoft- specific extensions would certainly be favored as it would increase their flexibility. 3.1.4. Default Behavior One important question concerning the completeness of a framework is how default behavior is incorporated and exposed. If the users, for example, do not need or want to customize certain abstractions within a framework, a default implementation that fits their particular requirements might save them time and effort. On the other hand, if a default implementation of an abstraction should not be sufficient, they could simply override it and provide their own customized functionality. Even though providing default behavior on the first glance increases the size of the framework code base, this does not automatically result in a potentially increased maintenance complexity. Since an enhanced completeness is connected to an enhanced ease-of-use, the framework users will potentially open less support enquiries that aim at refining hot spots4 in the framework. In many cases, the aggregated effort for maintaining the code that adds the default behavior might be less than the effort that evolves from refining badly designed hot spots. Regarding the MFC framework, default behavior is incorporated in classes that are intended to be used as base classes (e.g. CObject) as well as in the hook methods that represent the set of Windows message handlers. Instead of leaving the implementation of the message handlers to the developers of the application extensions, the MFC provides a default implementation for every method. 3.1.5. Summary As can be seen in the following table 1, each individual FEPP incorporates different FKC. Table1: Framework Key Characteristics (FKC) vs. Framework Engineering Principles and Practices (FEPP) 4 Hot Spots are places within the framework that require customization from the user. 742 3.2. Enabling Maintenance Even though the previously discussed methods help reducing the likeliness of future maintenance, this does not mean that the product does not need to be maintained at all. Changes in the domain of the framework, extensions requested by the user, or even bugs represent reasons to make modifications to the framework. Thus, it seems even more important to establish the framework on an architecture that is open and flexible enough to efficiently support future maintenance, use appropriate design patterns, and establish and follow conventions. 3.2.1. Architecture Inside the architecture, we want to point at two concepts that effectively enable the user to customize the framework’s behavior: Message Mapping5 vs. the use of Polymorphism. Message Mapping describes the way MFC binds Windows messages (integer IDs) to Windows message handlers (typically classes), whereby the event handlers announce which events they are able to process. The basic idea of Message Mapping is that the users of MFC in their client applications are able to customize the message handling to hook in their own responses on events. As MFC evolved as a child of the established programming standard C++, it could benefit from object-oriented language concepts. One powerful feature of C++, however, was not utilized: Polymorphism. The concept of Polymorphism captures the potential to more intuitively perform what was implemented with Message Mapping in MFC. Modifying the MFC to make use of Polymorphism could encompass to automatically attach a certain virtual message handler function to a specific Windows message in the MFC message pump (figure 1). Changing the message handler of a Windows message could now be achieved by deriving a new class from the MFC’s Windows message processing class (CWinApp) and overriding the virtual message handlers in the new class respectively. Figure 1: A polymorphism-based alternative to Message Mapping. Following conclusions are drawn: While Message Mapping is connected to manually editing the Windows message/Windows message handler entries in the map and then defining the message handler in a class accordingly, the Polymorphism-based alternative makes the first step unnecessary and merely requires overriding the appropriate virtual functions. Internally, however, the Polymorphism-based alternative does something similar to the Message Mapping mechanism, but is rather exposed as an object-oriented feature of the C++ programming language itself. 5 For more detail on Message Mapping, please refer to the MSDN (http://www.msdn.microsoft.com). 743 Since there are no message map entries to be taken care of, the Polymorphism-based approach would not only improve the ease-of-use FKC of the MFC, but also make the code of the application less susceptible to errors. The less code needs to be written by a developer, the fewer the number of errors he can potentially commit to the application. With respect to the effort that is related to maintaining and extending the MFC, the last statement also indicates that the Polymorphism-based approach could result in a decrease of resources necessary for maintenance (as there is less code affected). Hooking a new Windows message handler into an application could be achieved by simply overriding a virtual function from the MFC’s message dispatcher class CWinApp rather than fist declaring and defining a new entry in the message map and secondly creating the message handler class. 3.2.2. Design Patterns Design Patterns provide solutions to reoccurring software design problems that have proven to work in practice [9]. With respect to frameworks, Design Patterns are particularly useful for designing Hot Spots, the parts of the framework that determine its flexibility. Design Patterns can support the development of software frameworks by improving the flexibility and enhancability of a framework’s Hot Spots and thus ultimately paves the way for less complicated modifications due to maintenance. During our investigations, we identified three design pattern in the MFC: The Singleton Pattern (by accessing the main application object CWinApp), the Bridge Pattern (in serialization), and the Observer Pattern (as the basis of the Document/View architecture). For the ongoing explanations, we will concentrate on MFC’s implementation of the Observer Pattern only. The Observer Design Pattern refers to a pattern that is used to observe the state of an object in a program and is mainly used for realizing distributed event handling mechanisms [9]. The essence of this pattern is that one or more objects (observers) are registered to observe an event that may be raised by the observed subject. The subject provides an interface for attaching and detaching observers as well as notifying all observers that were attached about a new event. The observers contrarily define a notification function that is called by the subject as soon as a new event occurs. MFC embodies the Observer Pattern in its Document/View architecture. Documents in MFC are usually used to store the application’s data and thus act as subjects. Views on the other hand are attached to windows and display the data within documents on the screen while acting as observers. Since a document can have many views to display its data in different ways, a document updates all attached views when its content was changed by calling the function UpdateAllViews. The Observer Pattern in MFC’s Document/View architecture (see figure 2) ensures that the modification of a document’s data is propagated to all views that were attached to this document. 3.2.3. Conventions Conventions can help developers to better understand code that was written by other persons and thus try to address problems that evolve from the nature of very large projects. In order to be able to handle even big software development projects, they are broken down into smaller ones and assigned to teams. Code that is written in a more natural way with a structure that easier maps to a human’s native language can consequentially be easier to comprehend and understand [3]. To enable developers to use the associations and experiences they have gained from past projects, it is essential that all code produced within a software project (or even in general) follows a similar 744 design. This design aims at providing a coding foundation for all developers and thus tries to converge their work-related way of thinking expressed in so called coding conventions. Thereby, coding conventions not only suggest writing short and easy-to-understand statements, but also advices to use expressive variable and function names [13]. Figure 2: The Observer Pattern in MFC’s Document/View architecture. Across the Windows API, the foundation for the MFC, we identified the use of the Hungarian notation. In the Hungarian notation the first character or first several characters of a variable or parameter name identify the type of this variable or parameter. In addition, the MFC also defines its own set of naming conventions (e.g. “m_” for member variables or “On” for event handlers). With respect to maintenance and extension development of MFC, the used naming conventions certainly help developers to quickly acquaint themselves with existing code. They thus address the reusability and flexibility FKC, but from a developer’s point of view. 4. Conclusion This work aimed at presenting an approach that describes what to consider when reengineering frameworks with respect to their maintainability. As shown in the example of the MFC, frameworks might be subject to reactivation, even though their deprecation was already decided earlier. Thereby, the decision about reactivating a framework might be the result of an abruptly changing market or an organization’s strategy. The approach we presented identifies two main aspects that should be taken into account, when analyzing a framework’s internal condition after a reactivation: Preventing maintenance and enabling maintenance. We have shown that preventing maintenance can be achieved through a detailed documentation, the incorporation of contracts and default behavior as well as the consideration of standards. Enabling maintenance on the other hand helps reducing the complexity of future maintenance by designing the framework architecture in a way that it is easy to access by incorporating design patterns at places where it makes sense. Furthermore, conventions can support maintenance by allowing associations that were made earlier in the development phase. During our investigations, we identified several areas within the MFC that urgently require action to match this framework with the state-of-the-art in framework engineering. Refining the MFC’s internals at discussed places might help cutting down on the complexity of future maintenance projects. However, a careful investigation on the diversity of the MFC applicants would most likely 745 reveal that additional constraints exist which would increase the complicacy of conducting those changes. Further research could concentrate on the engineering of an approach that describes how to perform fixes to reactivated frameworks considering the situation of the framework community. Another open point might be the use of tools, such as Jfreedom [7], to support the framework reengineering process. 5. Bibliography [1] ARRANGO, G., PIETRO-DIAZ, G. and PIETRO-DIAZ, R., Domain Analysis Concepts and Research Directions, IEEE Computer Society 1991 [2] BEUGNARD, A, JÉZÉQUEL, J. M., PLOUZEN, N. and WATKINS, D., Making Components Contract Aware, IEEE Computer Society 1999 [3] CWALINA, K., ABRAMS, B. and RAGSDALE, S., Framework Design Guidelines: Conventions, Idioms and Patterns for Reusable .NET Libraries, Amsterdam, Addison-Wesley Longman 2005 [4] DEMEYER, S., MENS, K., WUYTS, R., GUEHENEUC, Y. G., ZAIDMAN, A., WALKINSHAW, N., AGUIAR, A. and DUCASSE, S, Workshop on Object-Oriented Reengineering, 19th European Conference on Object-Oriented Programming (ECOOP) 2005 [5] EAGLE, D., Evaluating Larch/C++ as a Specification Language: A Case Study Using the Microsoft Foundation Class Library, Iowa Sate University, Department of Computer Science, Iowa, USA 1995 [6] FAYAD, M. E. and SCHMIDT, D. C., Application Frameworks, Communications of the ACM, vol. 40, no. 10, pp. 32-38 1997 [7] FLORES, N. and AGUIAR, A., Jfreedom: a reverse engineering tool to recover framework design, Proceedings of the 6th European Conference on Object-Oriented Programming (ECOOP), Workshop on Object-Oriented Reengineering 2005 [8] FROEHLICH, G., HOOVER, H., LIU, L. and SORENSON, P., Designing Object-Oriented Frameworks, in: CRC Handbook of Object Technology, CRC Press, pp. 25-1 - 25-22 1998 [9] GAMMA, E., HELM, R., JOHNSON, R. and VLISSIDES, J., Design Patterns: Elements of Reusable ObjectOriented Software, Addison-Wesley Longman, Amsterdam 1995 [10] GREENFIELD, J. and SHORT, K., Software factories: assembling applications with patterns, models, frameworks and tools, Wiley Publishing, Inc., Indianapolis, USA 2004 [11] KOSKIMIES, K. and MOSSENBACK, H., Designing a Framework by Stepwise Generalization. Proceedings of the 5th European Software Engineering Conference 1995 [12] LAJOIE, R. and KELLER, R. K., Design and Reuse in Object-Oriented Frameworks: Patterns, Contracts, and Motifs in Concert, Proceedings of the 62nd Congress of the Association Canadienne Francaise pour l'Avancement des Sciences (ACFAS), Colloquium on Object Orientation in Databases and Software Engineering, Montreal, Canada, pp. 94-105 1994 [13] MOSER, H., Auswirkungen von Code Conventions auf Software Wartung und Evolution 2003 [14] NELSON, C., A Forum for Fitting the Task, IEEE Computer 27, pp. 104-109 1994 [15] TALIGENT, The Power of Frameworks, Addison Wesley 1995 746 AGENTEN-, MULTIAGENTENTECHNOLOGIEN Der Track „Agenten- und Multiagententechnologien“ befasst sich mit dem Entwurf, der Einführung und dem Einsatz von Agenten-/Multiagentensystemen in betrieblichen und gesellschaftlichen Anwendungsfeldern. Beiträge sollen entweder eine funktionale Perspektive oder eine Anwendungsperspektive einnehmen. Funktional orientierte Beiträge adressieren technologische Herausforderungen und stellen Lösungen und Systeme vor, die es erlauben, Agenten- und Multiagententechnologien erfolgreich in Unternehmensprozessen einzusetzen. Anwendungsorientierte Beiträge präsentieren innovative Softwarelösungen, die auf Basis der Agenten-/Multiagententechnologie für den konkreten Einsatz entwickelt wurden. Experimente, Fallstudien und Erfahrungsberichte, welche in überzeugender Weise die Notwendigkeit und die Vor- sowie Nachteile der Nutzung der Agenten-/Multiagententechnologie herausarbeiten, sind hier besonders willkommen. Leitungsgremium: Stefan Kirn, Universität Hohenheim (Federführender) Winfried Lamersdorf, Universität Hamburg Jörg Müller, Technische Universität Clausthal Programmkomitee: Michael Berger, Siemens AG, München Ralph Bergmann, Universität Trier Birgit Burmeister, Daimler AG, Böblingen Theodor Fischer, ipoint Systems (angefragt) Bogdan Franczyk, Universität Leipzig Otthein Herzog, TZI Bremen Kurt Kammerer, vi Franziska Klügl, Universität Würzburg Matthias Klusch, DFKI Saarbrücken Paolo Petta, Austrian Research Institute for Artificial Intelligence, Wien Vijay Sugumaran, University of Oakland / MI., USA Gerhard Weiß, Software Competence Center Hagenberg GmbH, Hagenberg COOPERATION MECHANISMS FOR MONITORING AGENTS IN SERVICE-ORIENTED ARCHITECTURES André Miede, Jean-Baptiste Behuet, Nicolas Repp, Julian Eckert, Ralf Steinmetz1 Abstract The Service-Oriented Architecture paradigm (SOA), e.g., realized with Web Services technology, enables enterprises to establish cross-organizational, service-based workflows. An important issue is the monitoring of the fulfillment of Service Level Agreements (SLAs) which define the responsibilities between the participants. Recent research has shown that agent technology is a useful approach in this context. Thus, we present ways for agent cooperation on different levels of abstraction. This cooperation aims at monitoring workflows and especially to react to deviations in different scenarios of SLA violations. 1. Introduction In an international and highly competitive economy, modern enterprises face many challenging requirements. To address these challenges, both the technology side and the business side have to cooperate seamlessly, while maintaining a mutual understanding of the challenges and their possible solutions on both sides. Among the different requirements which affect existing and future enterprise Information Technology (IT) architectures, the two following have a strong impact on both applications and research [8, 9, 11]: • Achieving a high flexibility of business processes and their underlying IT. • The integration of heterogeneous systems. The Service-Oriented Architecture (SOA) paradigm is an option to support an enterprise infrastructure which facilitates the addressed requirements. At the core of SOA is the “service” concept, which has to be understood as the technological representation of business functionality [8]. By using services as flexible components, business processes can be composed from them, abstracting processes from the underlying, mostly monolithic applications and allowing for compositions even across organizational boundaries. Such common and relevant scenarios remain an important focus of application scenarios and research in this field: cross-organizational, servicebased workflows. Establishing cross-organizational workflows is based on a trustworthy and dependable service exchange between the participating parties. Service Level Agreements (SLAs) are used to define 1 Multimedia Kommunikation (KOM), TU Darmstadt 749 both the responsibilities and requirements of the participants. However, the actually fulfillment or non-fulfillment of the SLAs has to be monitored. Ideally, this is done live at runtime to allow for reactions to detected deviations from the negotiated quality. In order to reduce further complexity and new, costly layers of manual administration, concepts from the field of self-organization (sometimes also known under the name of “Autonomic Computing”) can be utilized [10]. This paper presents cooperation mechanisms for agents to monitor service-based workflows in SOAs. These mechanisms are inspired by natural concepts from the field of self-organizing systems and extend an existing decentralized monitoring architecture. The rest of the paper is structured as follows: Section 2 gives an overview of a common application scenario for monitoring workflows, briefly discusses related work, and introduces the monitoring architecture the concept will be built on. Section 3 lays the foundation for the presented concept by discussing the key elements of the cooperation mechanism. Sections 4 and 5 show the core of the cooperation concept, namely intraand inter-cluster cooperation, which is used to react to deviations from SLAs in different scenarios. Section 6 presents important details about the implementation of the cooperation concept. Section 7 closes the paper with a summary of the key points and an outlook on future work. 2. Scenario and Related Work 2.1. Monitoring and Deviation Handling Scenario Cross-organizational service-based workflows are commonly described with the following scenario: to orchestrate higher level services and business processes, a service requester – i.e., an enterprise – integrates third-party services offered by various service providers, e.g., business partners. Service Level Agreements are contracted between the two parties, specifying in particular the service availability and the service performance by metrics like response time and throughput [6]. Figure 1 gives a schematic impression of this setup. Enterprise Boundary Business Process Layer Service Consumer Layer Service Provider Layer Application/ Legacy Layer Figure 1: Cross-Organizational, Service-Based Workflows Just as for any contract between clients and providers, the specification of the SLAs alone is no guarantee by itself. Thus, the monitoring of their fulfillment during runtime is needed as well and the actual service performance and availability have to be compared with the contracted ones, because services may, temporarily or permanently, not be able to fulfill the contracted requirements. Reasons for these failures are diverse as they can be caused by changes in the implementation of the services, overloads due to poor resource planning, crashes and outages of the service providers, or improperly negotiated SLAs that cannot be fulfilled by the services [3]. 750 On the other hand, the monitoring infrastructure itself may also experience problems. In this case, what at first sight was detected as an SLA violation, is none and thus should not be treated as one. More detailed information has to be gathered to support decisions for differentiated reactions. Based on the gathered monitoring information, deviations from the SLAs or infrastructure problems have to be handled accordingly, so that the workflows meet the requirements again. Reactions from such violations may include the renegotiation of the SLAs, the invocation of alternative services, the creation of new monitoring units, etc. However, in this scenario it is important to identify the cause of the problem as specific as possible to react the right way and closest to the failure. 2.2. Related Work Approaches for monitoring and alignment of service-based workflows can be classified into centralized and decentralized ones, and into functional and non-functional monitoring. Centralized monitoring and alignment means centralized gathering of monitoring data and centralized decision making, while the collection of monitoring data itself may be realized in a distributed manner by monitoring probes. Baresi and Guinea proposed such an approach, based on a central Monitoring Manager [1]. Although the possibility of recovery actions is mentioned, the authors did not provide any solution for deviation handling. To cope with scalability and performance problems in large-scale SOAs, centralized approaches are limited. Solutions have been proposed for distributed monitoring based on mobile agent technology. Most of the proposals for distributed monitoring are intended for network management, like [4]. But the agent technology has also been proved to be suitable for automated and decentralized monitoring of services. The AMAS.KOM architecture has been developed for this purpose [12, 13]. In the AMAS.KOM architecture (cf. Figure 2), service calls are redirected by proxies to agents which act as monitoring units. Agents are then used as proxies for services, monitoring them, checking the fulfillment of SLAs, and being able to take countermeasures in an autonomic fashion. Client Monitoring Factory Proxy Agent Agent Agent Web Service Web Service Figure 2: Simplified Overview of the AMAS.KOM Architecture The generation of Monitoring and Alignment Agents (MAA) is automatically done based on the workflow description and the corresponding business requirements. This generation is realized through a transformation of the workflow description and the business requirements into monitored instances of the workflow. The transformation process contains four steps: 751 1. Annotation 2. Modification and Splitting 3. Generation 4. Distribution Figure 3: Workflow Transformation Steps In the Annotation step, the business requirements are described for the complete workflow in a single policy document in machine-readable format. In the Modification and Splitting step, requirements for each service of the workflow are derived from the global policy document. The MAAs are created during the Generation step based on these derived requirements. As this step is especially relevant for the understanding of the architecture and the presented concept, more details are necessary: An MAA associated with an SLA for a given Web Service is generated and started by the central Monitoring Factory for the first call to this Web Service with the given SLA. The required configuration parameters are passed during the agent construction, i.e., which Web Service to monitor, the used SLA, specifications for handling deviations, etc. The content of the request to the Web Service itself is then sent to the Monitoring Agent subsequently. For further calls to the same Web Service with the same SLA, the reference to the responsible agent will be retrieved and then the request will be sent to the agent. Finally, the agents are distributed in the infrastructure during the Distribution step. The AMAS.KOM architecture has been designed to support automated monitoring and alignment of service-based workflows. Currently, monitoring capabilities have been integrated into the agents, which now work individually, forwarding service calls, and checking the fulfillment of the contracted SLAs. In order to increase the architecture’s abilities to react autonomously to different types of deviations, cooperation mechanisms among the agents can be considered the next necessary step. The current AMAS.KOM architecture is enhanced by integrating these cooperation mechanisms into the monitoring agents. Details of this concept are described in the following. 3. Cooperation Concept Overview 3.1. Hybrid Architecture – Agent Clusters A Web Service may be monitored by several agents at the same time, each monitoring the fulfillment of a contracted SLA. It seems therefore natural to group all the agents monitoring a given Web Service into an Agent Cluster. An overview of the overall cluster concept is provided in Figure 4. An Agent Cluster consists of the agents monitoring a specific Web Service and therefore corresponds to this Web Service. While each individual agent of the cluster is in charge of monitoring the fulfillment of a given SLA by the Web Service, a cluster of agents cooperating together by exchanging monitoring information has a better and more detailed view of the monitored Web Service. Therefore, such a cluster of cooperating agents has special diagnosis capabilities and can distinguish a Web Service crash from a simple inability to fulfill the contracted SLA, or from problems actually occurring inside the agent infrastructure. Consequently, it can determine suitable reactions to overcome the current problems and execute them in an autonomic way, e.g. invocation of alternative Web Services, SLA renegotiation, delegation of the monitoring to other agents, or other reactions. 752 Client Monitoring Factory Proxy Leader Agent Intra-Cluster Cooperation Cluster Agent Agent Agent Agent Inter-Cluster Cooperation Web Service Web Service Figure 4: Overview of the Cooperation Concept As a result, the Agent Cluster associated with a given Web Service is responsible for the monitoring of this Web Service and for the handling of many different types of deviations. 3.2. Distributed Approach Inside the Agent Cluster Based on Monitoring Agents The agents forming an Agent Cluster are basically all Monitoring Agents. A Monitoring Agent is in charge of monitoring the fulfillment of a given SLA by the Web Service. Web Service calls associated with a given SLA are redirected by proxies to the corresponding agent. This Monitoring Agent acts as a proxy for the Web Service, forwarding the requests to the Web Service, while monitoring it and checking the fulfillment of the associated SLA. Monitoring Agents are also capable of cooperation (cf. Section 4) and of taking countermeasures in an autonomic fashion. For tasks other than monitoring, such as the diagnosis of SLA violations based on the monitoring information from the different agents, the execution of countermeasures, or cluster management, it was first considered to add task-specialized agents into the Agent Clusters. For example, adding one “Diagnosis Agent” aggregating the monitoring information from the monitoring agents of the cluster and which is therefore capable of diagnosis. However, such an approach would require the presence of a multitude of task-specialized agents per cluster, and thus per Web Service, imposing a lot of overhead on the architecture. Moreover, such specialized agents with central functions would constitute critical points-of-failure inside the cluster. Since the number of Monitoring Agents per cluster (equal to the number of agreements contracted by the associated Web Service) is limited, there is no need for specialized agents, e.g., aggregating the monitoring information. An “n to n” communication pattern inside the Agent Cluster is fully scalable, and much more robust. Our proposal is therefore a distributed approach inside the Agent Cluster, based solely on Monitoring Agents and on their cooperation, as described in Section 4. 3.3. Elected Cluster Leader For some tasks in the cluster, which cannot be decentralized, an agent is elected among the Monitoring Agents: the Cluster Leader. Once elected, the Cluster Leader still performs its regular duties just as any Monitoring Agent, but it also takes extra responsibilities in addition. The Cluster Leader is especially the interface of the Agent Cluster for the agents of other clusters. It is in charge of the incoming communication from other Agent Clusters. If another Web Service 753 crashes, an agent monitoring this service will try to delegate its requests to an alternative Web Service. For this purpose, the latter agent may contact the corresponding Cluster Leader and ask for treating its requests. The Cluster Leader is responsible for receiving these requests and to forward them. It has to decide whether to accept such requests or not, according to the performance and other monitoring criteria of the Web Service it monitors. The Cluster Leader treats those external requests by delegating them to the Monitoring Agents of its cluster. Electing an agent among the Monitoring Agents of the cluster for taking extra responsibilities is a robust way of dealing with central non-critical functionalities like treating requests from other Agent Clusters. Details on how the Cluster Leader is elected and how it can be replaced in case of a failure are described in Section 4. 4. Intra-Cluster Cooperation 4.1. Exchange of Monitoring Information The communication pattern for the exchange of monitoring information between the agents inside a cluster is inspired by the self-organization mechanism Stigmergy, a communication style observed in nature, especially in ant colonies [2, 10]. Stigmergy is a form of indirect communication between agents by modifying their environment. It is a self-organization mechanism enabling very simple agents to create complex structures, like ants creating foraging networks or building nests only by releasing pheromones. Likewise, Monitoring Agents exchange their information in a distributed way by releasing positive and negative feedback in the Agent Cluster. After a Web Service call, a Monitoring Agent releases negative feedback if it detects an SLA violation or experiences a failure, and releases a positive feedback otherwise. Feedback consists typically of simple messages and may contain some information like the response time of the last service call, possibly the content of the service request, and in the case of a negative feedback whether it refers to a SLA violation or a failure. The other agents of the cluster modify their behaviors according to received negative feedback. In turn they check the Web Service if they have not done so lately and release feedback. While sending and receiving feedback, agents update their perception of the monitored Web Service (the Web Service’s “reputation”). In order to avoid a chain reaction of feedback releases, agents do not react to further negative feedback after a certain time. A Monitoring Agent reacts to negative feedback from other agents in the cluster with top priority since such feedback may suggest forthcoming problems for the agent itself. 4.2. Handling of SLA Violations After Monitoring Agent detects a deviation from the requirements, it releases negative feedback in its cluster. After that, it correlates the monitoring results from the other agents that it has received as feedback, updates its perceived reputation of the service, performs a simple diagnosis and determines whether the detected SLA violation actually comes from an inability for the Web Service to fulfill these requirements, a service crash, a problem in the agent infrastructure, or an isolated accident. Based on this simplistic diagnosis, the agent decides to delegate the monitoring of its SLA to another agent in the cluster, or to an alternative Web Service. Delegation to an alternative Web Service is performed when the agent perceives that the original service is unable to fulfill the contracted SLA, the mechanism is explained in Section 5. 754 In the case when its latest service call has failed, the Monitoring Agent first needs to get the result of that request as soon as possible. It requests this result from another agent in the cluster or an alternative Web Service. The choice of the agent in the cluster or the alternative Web Service to delegate to is based on the current perception of these (see agent reputation in Section 4.3 and service reputation in Section 5). In the cases of both a simple SLA violation and failure, Monitoring Agents may need to delegate to other agents or alternative Web Services for treating their further requests and fulfilling the SLAs. Such delegations must not be requested as in the case of a failure. Instead, the Monitoring Agents send calls for proposals to other agents in the cluster or to Cluster Leaders of alternative Web Services, which in turn reply with refusals or proposals, specifying their ability to fulfill the given SLA. Based on the received proposals and the current perception of the other agents or Web Services, the requesting agents decide on which services they delegate to. If no proposal is satisfying, i.e. better than the current Web Services, they decide to go on with the current configurations, and possibly ask for the renegotiation of the SLAs. 4.3. Management of the Agent Cluster The delegation model inside the Agent Cluster, in particular the choice of the Monitoring Agent to delegate to (see Section 4.2), is based on the “reputation” of the agents. The reputation of an agent describes its reliability and its eagerness to cooperate, for example by accepting requests or calls for proposals from other agents and by always releasing feedback. The reputation model we propose for agent reputation is the Certified Reputation model, developed by Huynh et al. [5]. This is a promising distributed model which therefore does not need any central agent for managing the reputations. Besides the choices of the delegating agents, agent reputation is used for the election of the Cluster Leader: the agent in the cluster with the best reputation is elected – if several agents have the same reputation, it is chosen randomly among the best, e.g., taking the one with the smallest id number. Since agents are fundamentally selfish, taking care of their own interests first, their wish for becoming the Cluster Leader and their fear of being excluded from the cluster are good incentives to make them cooperate and to build a good reputation. The self-management of the Agent Cluster is realized by a heart-beat mechanism centralized at the Cluster Leader. The latter sends heart-beats periodically to the agents in the cluster, in order to notify them of its presence. After receiving heart-beats from the leader, the other agents reply by sending heart-beats back. If an agent fails to receive a heart-beat from the leader, it launches an election. In this way, although there is initially no foreseen leader in the cluster, an election is immediately launched. By receiving heart-beats from the other agents, the Cluster Leader is aware of the presence of all the other agents in the cluster, and is able to detect if an agent does not respond anymore. In this case, the leader tries to delegate the tasks of the faulty agent to another agent in the cluster, or in case of necessity asks for the generation of a new agent in the cluster which will overtake the tasks of the faulty one. 5. Inter-Cluster Cooperation When a Monitoring Agent diagnoses that the Web Service it monitors has crashed or is unable to fulfill the contracted SLA, it may decide to delegate its service requests to an alternative Web Service. An alternative Web Service is a service that implements equivalent functionalities to the original one, but with better Quality of Service characteristics. A list of these alternatives has to be previously defined manually by the client during the SLA negotiation so that it is then given to the 755 agent in its policy file. In the future, these equivalent Web Services could be discovered and retrieved automatically using semantics. Monitoring Agents delegate requests to alternative Web Services by contacting their associated Cluster Leaders. In the case when service requests have failed in their own clusters, the Monitoring Agents still need to obtain the results for the current requests as soon as possible. For this purpose, they request the Cluster Leaders of the alternative Web Services for the results to these current requests. The Cluster Leaders treat these requests by delegating them inside their own clusters. Afterwards, as well as in the case of simple SLA violations without failure, Monitoring Agents may need to delegate to alternative Web Services for treating their further requests while respecting the SLAs. Such delegations must not be requested as in the previous case. Instead, the Monitoring Agents send calls for proposals to the Cluster Leaders of the alternative Web Services, which in turn reply with refusals or proposals, specifying the overall “reputations” (see 4.1) of their Web Services. Based on the received proposals, the requesting agents decide on which services they delegate to. If no proposal is satisfying, i.e. better than the current Web Services, they decide to go on with the current configurations, and possibly ask for the renegotiation of the SLAs. The inter-cluster cooperation is now limited to sending requests or calls for proposals to Cluster Leaders by Monitoring Agents of other clusters. Other cooperation mechanisms, such as communication between the leaders of the different clusters, are currently under investigation. Detection of SLA Violation by Single Agent WS = Web Service Result Obtaining WS Result No Yes WS Problem WS Problem Yes WS Problem: Inter-Cluster Request for Result No Agent Problem: Intra-Cluster Request for Result No Yes Adaptation for Future Agent Problem: Intra-Cluster Call for Proposals WS Problem: Inter-Cluster Call for Proposals Decision Options: • Delegate to Existing Agent in Cluster • Creation of New Agent in Cluster (+Delegation) • Continue with Current Configuration Decision Options: • Delegation to Altenative WS • SLA Renegotiation • Continue with Current Configuration Figure 5: Schematic Overview of the Different Deviation Handling Scenarios and their Interrelations To sum up the essence of Section 4 and 5, Figure 5 gives a schematic overview of what deviation handling scenarios can be handled by the proposed collaboration mechanisms. 756 6. Implementation The AMAS.KOM architecture and the extensions presented in this paper are implemented using the JADE framework, an Open Source Java framework for agent development, which is compliant with the FIPA specification (Foundation for Intelligent Physical Agents) [7]. For Web Service deployment Apache AXIS is used, thus the architecture supports the following common Web Service standards: WS-BPEL 2.0 for workflow description, WSDL 1.1 (Web Service Description Language) for the description of Web Service interfaces, SOAP 1.2 as protocol for the exchange of XML messages, REST as architectural style for service communication, and WS-Policy and WSSecurityPolicy as policy formats. The discussed enhancements of the AMAS.KOM architecture consist of adding cooperation capabilities to the monitoring agents. The implementation of these mechanisms is mainly realized by adding new behaviors to the existing agents, using the class Behaviour of the JADE framework. The JADE framework provides the necessary tools for agent development in Java. However, it has to be emphasized that agent development is not identical to object development. One special feature of agent computing is the autonomy of the agents. Autonomic agents cannot be accessed like objects, but they can only be accessed by sending messages to them in the FIPA ACL format (Agent Communication Language). For example, the Monitoring Factory consequently has to forward the content of the Web Service requests to the agents as ACL messages, and receives the responses in return as ACL messages as well. Such a communication between objects and agents is provided by the JADE framework, using a GatewayAgent. During the implementation, special attention is paid to the proper definition of new behaviors in JADE in order to allow their future enhancements. 7. Conclusions and Future Work In this paper, cooperation mechanisms for monitoring and deviation handling agents were presented. Cooperation is built around the idea of special domains, called Agent Clusters, where a set of autonomous agents is monitoring a service for different aspects and reacts to detected problems. Coordination is achieved by the election of a Cluster Leader, which has responsibilities both within the cluster (intra-cluster cooperation) and between clusters (inter-cluster cooperation). This setup makes it possible for the agents to detect deviations and to react to them in a timely manner and according to pre-defined specifications. The concept is an extension of the existing AMAS.KOM architecture, building on its code base using agent technology from the JADE framework. Future work aims at refining the concept further, especially detailing inter-cluster cooperation to allow for more functionality here and to approach a wider range of deviation scenarios. Furthermore, the WS-Re2Policy language has to be integrated to have a more flexible and dynamic means to specify what is to be monitored and how should be reacted to deviations [14]. Concerning the implementation, special care has be taken to ensure the maintainability and extensibility of the architecture, e.g., to extend the criteria to be monitored or to extend the available reaction possibilities. Another very important aspect is the evaluation of the concept and its implementation. Here, issues such as the imposed communication overhead have to be analyzed and weighed against the benefits 757 of automated monitoring and deviation handling. Due to page restrictions, results for these issues will be presented and discussed in our next publications. 8. Acknowledgments This work is supported in part by E-Finance Lab e.V., Frankfurt am Main, Germany and BearingPoint Management and Technology Consultants. 9. References [1] BARESI, L.; GUINEA, S., Towards Dynamic Monitoring of WS-BPEL Processes, in: Proceedings of the 3rd International Conference on Service oriented computing, 2005, pp. 269-282 [2] CAMAZINE, S.; DENEUBOURG, J.; FRANKS, N. R.; SNEYD, J.; THERAULAZ, G.; BONABEAU, E., SelfOrganization in Biological Systems, Princeton Studies in Complexity, Princeton University Press, 2003. [3] ECKERT, J.; SCHULTE, S.; NIEMANN, M.; REPP, N.; STEINMETZ, R., Worst-Case Workflow Performance Optimization, in: 3rd International Conference on Internet and Web Applications and Services (ICIW'08), Athens, Greece, June 2008. [4] GAVALAS, D.; GREENWOOD, D.; GHANBARI, M.; O'MAHONY, M., Using Mobile Agents for Distributed Network Performance Management, in: Proceedings of the Third International Workshop on Intelligent Agents for Telecommunication (IATA99), pp. 96-112, 1999. [5] HUYNH, T.D.; JENNINGS, N.R.; SHADBOLT, N.R., Certified Reputation - How an Agent Can Trust a Stranger, in: The Fifth International Joint Conference on Autonomous Agents and Multiagent Systems, 2006, May 8-12, Hakodate, Japan, 2006. [6] IBM CORPORATION, Web Service Level Agreement (WSLA) Language Specification, Version 1.0, January 2003. [7] JADE, Java Agent DEvelopment Framework, http.//jade.tilab.com/, 2008. [8] JOSUTTIS, N. M., SOA in Practice: The Art of Distributed System Design (Theory in Practice), O'Reilly Media, Inc., 2007. [9] KRAFZIG, D.; BANKE, K.; SLAMA, D., Enterprise SOA: Service-Oriented Architecture Best Practices (The Coad Series), Prentice Hall PTR, 2004. [10] MIEDE, A.; REPP, N.; ECKERT, J.; STEINMETZ, R., Self-Organization Mechanisms for Information Systems -A Survey, Proceedings of the Fourteenth Americas Conference on Information Systems (AMCIS 2008), 2008. [11] Newcomer, E.; Lomow, G., Understanding SOA with Web Services (Independent Technology Guides), AddisonWesley Professional, 2004. [12] REPP, N., Monitoring of Services in Distributed Workflows, in: 3rd International Conference on Software and Data Technologies (ICSOFT 2008), July 2008. [13] REPP, N.; ECKERT, J.; SCHULTE, S.; NIEMANN, M.; BERBNER, R.; STEINMETZ, R., Towards Automated Monitoring and Alignment of Service-based Workflows, in: IEEE International Conference on Digital Ecosystems and Technologies 2008 (IEEE DEST 2008), February 2008. [14] REPP, N.; MIEDE, A.; NIEMANN, M.; STEINMETZ, R., WS-Re2Policy: A Policy Language for Distributed SLA Monitoring and Enforcement, in: Proceedings of the Third International Conference on Systems and Networks Communications (ICSNC), 2008. 758 GEOREFERENZIERUNG IN DER LOGISTIK Michael Schuele, Paul Karaenke, Achim Klein1 Kurzfassung Georeferenzierung und Geographische Informationssysteme (GIS) finden in vielen Disziplinen außerhalb der Geographie weite Einsatzmöglichkeiten. So werden bereits heute viele ITAnwendungen durch Georeferenzierung unterstützt. In diesem Beitrag wird der Einsatz von Geoinformationen zur Individualisierung von Logistikleistungen untersucht. Geoinformationen stehen in direkter Beziehung zur räumlichen Adaptivität von Wertschöpfungssystemen. Als Anwendungsszenario werden logistische Leistungen des Passagiertransports an Flughäfen betrachtet. Es wird eine das Lieferkettenmodell unterstützende Softwarearchitektur vorgeschlagen und im Rahmen einer Simulationsstudie evaluiert. 1. Einführung Unter einem Lieferkettenmodell ist die Abbildung einer realen oder geplanten Lieferkette als ein System von Entitäten, die an der Herstellung, Transformation und Verteilung von Sach- und Dienstleistungen von den Lieferanten zu den Kunden beteiligt sind, zu verstehen [16]. Durch die Ausrichtung der angebotenen Leistungen auf die individuellen Besonderheiten und Wünsche des Käufers kann sich der Anbieter einen Wettbewerbsvorteil verschaffen. Diese strategische Vorgehensweise kann als Individualisierung bezeichnet werden. Im Rahmen der Individualisierung einer Leistung werden die Eigenschaften des Produkts so angepasst, dass sie der Präferenzstruktur des Kunden entsprechen [10]. Logistikleistungen können ebenfalls Gegenstand von Individualisierungsstrategien sein. Gegenstand dieses Beitrags ist ein Lieferkettenmodell der Passagiertransportsysteme zur Abfertigung der Flugzeuge an einem Flughafen. Die angebotenen Leistungen sind ausschließlich Dienstleistungen. Aus den sich stetig wechselnden Anforderungen an die Transportsysteme zur Abfertigung der Flugzeuge ergibt sich ein Individualisierungsproblem, welches eine räumliche Adaptivität des Lieferkettenmodells verlangt. Das bedeutet, es gilt Adaptionspotentiale des Lieferkettenmodells bzgl. der Dimension Raum zu finden. Als Lösungsperspektive wird die Perspektive der Software-Architektur-Modellierung anhand des Design Science Paradigmas eingenommen [5]. Die Methoden für den Lösungsansatz dieser Arbeit zur Lösung des Individualisierungsproblems sind im Bereich der Softwaretechnologie zu suchen. Das Lieferkettenmodell wird in einer Softwarearchitektur abgebildet. Die räumliche Perspektive wird in diesem Softwaresystem durch den Einsatz von Geoinformationssystemen umgesetzt. Die Eigenschaft der Adaptivität wird durch den Einsatz von Multiagententechnologie erreicht, da dabei das individuelle Verhalten autonomer Akteure abgebildet werden kann. 1 Lehrstuhl Wirtschaftsinformatik 2, Universität Hohenheim, D-70599 Stuttgart, Schwerzstr. 35. 759 Kapitel 2 beschreibt den Stand der Forschung in diesem Bereich. Kapitel 3 beschreibt die Problemstellung, formalisiert den Gegenstand des Lieferkettenmodells und diskutiert die Erwartungen an die Anpassung bezüglich der Dimension Raum in diesem Lieferkettenmodell. Kapitel 4 schlägt eine Softwarearchitektur für diese Fragestellung vor. In Kapitel 5 wird diese anhand einer Simulationsstudie evaluiert. Kapitel 6 schließt ein Resümee und gibt einen Ausblick auf weitere Arbeiten. 2. Verwandte Arbeiten Beim Blick in die Literatur stellt man fest, dass die Frage der Individualisierung von Gütern und Dienstleistungen bisher vor allem entweder unter einer Marketingperspektive sowie in einer einzelbetrieblichen Produktionsperspektive betrachtet worden sind. Letztere adressiert die Individualisierung durch eine im Einzelfall (bspw. Autoindustrie) sehr weitgehend aufgefächerte Variantenstrategie. Dieser Ansatz kann um exklusive Individualisierungsmöglichkeiten ergänzt werden, bspw., wenn auf individuelle Wünsche des einzelnen Kunden direkt eingegangen und die Lösung ggf. sogar unter Mitarbeit des Kunden entwickelt und realisiert wird [7]. Erprobte Forschungsansätze für das hier skizzierte Individualisierungsproblem sind in der Literatur nicht vorhanden, sieht man einmal von den Ergebnissen aus dem Gebiet der kundenindividuellen (Massen-)Produktion ab. Nach [3] kann der Ansatzpunkt der Individualisierung sowohl das Produkt als auch der Herstellungsprozess sein. Die Individualisierung findet in einer auf mehreren Phasen des Produktlebenszyklusses statt (von der Planung bis hin zur Nutzung). Die zentrale Forschungsfrage lautet deshalb: Wie können grundsätzlich diese Lösungspotentiale des Wertschöpfungssystems erschlossen werden und anhand welcher Kriterien kann die theoretische und praktische Relevanz dieser Fragestellung bemessen werden? Verwandte Konzepte sind Anpassung (engl. customization) [3], Kundenindividuelle Massenfertigung (engl. mass customization) [3][11][10], Personalisierung (engl. personalization) [10] und Prosumer (engl. Kunstwort aus Producer und Consumer) [17][3]. Unternehmen können Individualisierungsstrategien dadurch entwickeln, dass sie einer Differenzierungsstrategie folgend ihr Leistungsportfolio um kundenindividuelle Leistungen erweitern. Bereits Gegenstand aktueller Forschungen sind die dazu erforderlichen Anpassungen in Marketing, Produktion und Distribution (z.B. [8], [6], [15]). Bisher nur wenig betrachtet wurde allerdings die Rolle der jeweiligen Wertschöpfungssysteme, die als Verbund der wertschöpfenden Aktivitäten aller beteiligten Akteure die Gesamtleistung für den Endkunden erzeugen. Kirn et. al. nehmen als zentrale Forschungshypothese an, dass die Individualisierung von Sachgütern und Dienstleistungen eine eigenständige Leistung ist, die vom jeweiligen Wertschöpfungssystem erbracht wird. Unterschiedliche Wertschöpfungssysteme innerhalb ein- und derselben, aber auch von verschiedenen Branchen unterscheiden sich unter anderem auch danach, welche Individualisierungspotentiale sie jeweils eröffnen, und nutzen. Um diese Potentiale zu fördern, sind Änderungen im Wertschöpfungssystem notwendig. Änderung von Wertschöpfungssystemen, die zielgerichtet, d.h. explizit vor dem Hintergrund einer individuellen Anforderungserfüllung erfolgen, werden als Adaption des Systems bezeichnet. Die Adaption kann bezüglich verschiedenster Dimension erfolgen, die Aufmerksamkeit widmet sich hauptsächlich den Dimensionen der räumlichen, zeitlichen und ökonomischen Adaptivität [7]. Dieser Beitrag widmet sich hauptsächlich der räumlichen Dimension, welche aus einer Perspektive der Software-Architektur-Modellierung betrachtet wird, so dass die Individualisierungsleistungen im Wertschöpfungssystem und die damit verbundene Anpassung von Wertschöpfungssystemen 760 spezifische Anforderungen an Softwaresysteme stellen. Bei [3] wurde eine Anwendungsarchitektur für Mass Customization Informationssysteme entwickelt, welche die spezifischen Anforderungen der Wettbewerbsstrategie Mass Customization erfüllen. In den Arbeiten [18][1][2][12] werden jeweils Konzepte vorgestellt, die dem allgemeinen Kapazitätsproblem an Flughäfen entgegenwirken. Hierzu werden Lösungen gezeigt, die die Verkehrsplanung auf dem Vorfeld durchführen. Die Anforderungen mit räumlichen Daten zu arbeiten werden teilweise diskutiert [18][2][12]. In [18] wird als Grundlage für die räumliche Abbildung der Verkehrswege ein diskretes Modell erstellt. In dem Beitrag von [2] werden die Ergebnisse durch den Einsatz eines Simulationswerkzeuges erzielt. Die Adaptivität bezüglich der Dimension Raum wird durch die Abbildung des Vorfeldes in einem Graphen erreicht. Aus dem Bereich der in diesem Beitrag eingesetzten Technologien zeigen die Arbeiten in [9] einige Anwendungsbeispiele für raumbezogene Informationssysteme. Aus den eigenen Forschungsarbeiten [13][14] lassen sich ebenso Erkenntnis über die Integration von Geoinformationssystemen und Multiagentensystemen ableiten. In diesem Beitrag ist die Motivation für die Planung der Logistikdienstleistung am Vorfeld des Flughafens nicht ein Kapazitätsproblem, sondern ein Individualisierungsproblem. Die Verkehrsplanung auf Basis von räumlichen Daten wird eher als Werkzeug zur Lösung des Problems herangezogen, als als zentrale Problemstellung angesehen. Gegenstand dieser Arbeit ist das gesamte Lieferkettenmodell und nicht nur die direkt den Passagiertransport durchführenden Akteure. Zudem wird die Anwendung von Technologien aus der Geodatenverarbeitung zur Beschreibung der Adaptivität bezüglich der Dimension Raum explizit diskutiert. Auf diese Weise wird der Begriff der Individualisierung im Bereich des räumlichen Kontexts fassbarer. 3. Problembeschreibung 3.1. Lieferkettenmodell Der Gegenstand des Lieferkettenmodells der Passagiertransportsysteme als ein Teil der Bodenabfertigung am Flughafen kann in einer graphenbasierten Abbildung dargestellt werden. Hierbei werden die teilnehmenden Akteure als Knoten (Kreis) dargestellt und die Interaktionsbeziehungen zwischen diesen Akteuren als ungerichtete Kanten. Abb. 1 zeigt das betrachtete mehrstufige Lieferkettenmodell. Ein vergleichbares Modell kann beispielsweise [4] entnommen werden. 1st tier Supplier OEM Passagiertransportservice Busfahrer Customer Distributor Passagiertransportservice Ground Handling Service Manager Flug Abfertigung des Fluges Airline Service Provider Airline Passagier Abbildung 1. Lieferkettenmodell für Passagiertransporte am Flughafen Die einzelnen Akteure werden nachfolgend näher erläutert. • Busfahrer: Der Busfahrer hat die Funktion die Dienstleistung des Passagiertransports vom Terminal zum Flugzeug bzw. vom Flugzeug zum Terminal zu erbringen. 761 • • • • Ground Handling Service Manager: Der Ground Handling Service Manager fungiert als Schnittstelle zwischen dem Busfahrer und dem Airline Service Provider und übernimmt die Gesamtkoordination des Passagiertransportservice, indem die einzelnen Aufträge den Busfahrern zugeordnet werden. Airline Service Provider: Der Airline Service Provider fungiert als Organisation, die als Anbieter des Passagiertransportservice, einer Teildienstleistung zur Abfertigung des Fluges, mit dem Kunden (Airline) in direktem Kontakt steht und über die Serviceleistung verhandelt. Die abzufertigenden Aufträge sind an den Ground Handling Service Manager weiterzugeben. Airline: Die Airline fungiert mit ihren abzufertigenden Flugzeugen als der Kunde der angebotenen Dienstleistungen der Airline Service Provider. In diesem Beitrag wird die Airline als Endkunde im Lieferkettenmodell angesehen. Passagier: Der Passagier ist der finale Kunde des Lieferkettenmodells, der die Leistung des Fluges im eigentlichen Sinn abnimmt. Der Passagier tritt auch als die zu transportierende Entität in Erscheinung. In der weiteren Betrachtung wird der Akteur Passagier im Lieferkettenmodell keine Relevanz haben. Aufgabe des dargestellten Lieferkettenmodells ist es, den Passagiertransportservice für ankommende und abgehende Flugzeuge durchzuführen. Das heißt, die Airline beauftragt einen Airline Service Provider, Passagiertransportservice durchzuführen. Der Ground Handling Service Manager sammelt die Aufträge und teilt diese zum Durchführungszeitpunkt den einzelnen Busfahrern zu. Ständig wechselnde, individuelle Anforderungen wie z. B. Ankunftszeiten, Abflugszeiten, Parkpositionen der Flugzeuge und Terminalposition der Passagiere, meistens verursacht durch Verspätungen, ergeben ein unübersichtliches Szenario. Die Busfahrer selbst fahren die Passagiere von einer bestimmten Parkposition des Flugzeuges zu einem bestimmten Terminal und andersrum. In solch einem Lieferkettenmodell gilt es, die eingesetzten Ressourcen möglichst effizient zu nutzen. Um dennoch auf die beschriebenen, individuellen Anforderungen eingehen zu können, muss dem Lieferkettenmodell die Eigenschaft der Adaptivität zur Verfügung stehen. In diesem Beitrag wird die Adaptivität im Bezug auf die Dimension Raum untersucht. Dies bietet sich bei der großen Flächenausdehnung des Flughafengeländes, in dem die räumliche Lage der einzelnen Akteure eine Rolle spielt an. Dies fordert den Einsatz von Technologien aus der Geodatenverarbeitung, was sich in unterschiedlichen Facetten auf die einzelnen Akteure des Lieferkettenmodells auswirkt. 3.2. Individualisierungsproblem Die Merkmale des Individualisierungsproblems werden im Folgenden beschrieben und in Tab. 1 zusammengefasst. Diese Merkmale dienen gleichzeitig als Anforderungskatalog für die in Kapitel 4 zu entwickelnde Softwarearchitektur. Das zu individualisierende Produkt ist die Dienstleistung des Passagiertransportservice. Der Anforderungsspezifikator ist die Airline, welche spezifische Anforderungen an den Passagiertransportservice stellt. Inhaltlich bedeutet das, dass die Dienstleistung sich auf die nicht planbaren Parameter Parkposition der Flugzeuge und Terminalposition der Passagiere anpasst. Die Individualisierung bezieht sich auf den Prozess der Koordination und den Passagiertransport selbst. Die Individualisierung kann erst stattfinden, wenn die Parkposition und die Terminalposition der Passagiere feststehen. Beteiligt an der Individualisierung sind die Airline als Anforderungsspezifikator, der Airline Service Provider, der ein ökonomisches Interesse an die Auswirkungen der Individualisierung hat, der Ground Handling Service Manager, der die Anforderungen mit Hilfe von Technologien der Geodatenverarbeitung in der Auftragskoordination umsetzt, und der Busfahrer, der den Ground Handling Service Manager mit geografischen Informationen versorgt und den Passagiertransport selbst durchführt. In diesem 762 Beitrag findet die Individualisierung im Bezug auf die Dimension Raum bei den Akteuren Busfahrer und Ground Handling Service Manager statt. Der Busfahrer erhält eine Technologie zur eigenen geographischen Positionsbestimmung, die an den Ground Handling Service Manager mitgeteilt wird. Der Ground Handling Service Manager kennt die Position der abzufertigenden Flugzeuge und die der Busse und ordnet aufgrund dieser Information den Busfahrern Aufträge zu. Dies kann mit Hilfe eines Softwaresystems gelöst werden, welches räumliche Daten verarbeiten kann. Darüber hinaus kann das Szenario über eine graphische Schnittstelle visualisiert werden. Für die Koordination der einzelnen Akteure untereinander und deren Anpassung muss eine Technologie gewählt werden, die die Eigenschaft der Adaptivität in einem verteilten System unterstützt. Die Individualisierung durch die Adaptivität bezüglich der Dimension Raum soll eine positive ökonomische Auswirkung auf das gesamte Lieferkettenmodell haben. Merkmale des Individualisierungsproblems Produkt Anforderungsspezifikator Prozess Individualisierungsakteure Individualisierungsdimension Unterstützung der Dimension Raum im Softwaresystem Adaptivität im Softwaresystem Zielsetzung der Produktion Ausprägungen im betrachteten Lieferkettenmodell Dienstleistung des Passagiertransportservice Airline stellt die spezifischen Anforderungen Koordination der Passgiertransporte Airline Service Provider, Ground Handling Service Manager, Busfahrer Raum geographisches Positionierungssystem, Softwaresystem mit der Funktionalität geographische Daten zu verarbeiten, Visualisierung Technologie mit der Fähigkeit die Eigenschaft der Adaptivität in einem verteilten System zu unterstützen allgemein: Kostenminimierung unter Nebenbedingungen; hier: Reduzierung einzusetzender Transportkapazitäten (variable Kosten) durch Weg- und damit Zeitminimierung Tabelle 1. Merkmale des Individualisierungsproblem 4. Softwarearchitektur In diesem Abschnitt werden die Funktionalitäten des Lieferkettenmodells in einer Softwarearchitektur abgebildet. Die Architektur beschreibt die akteurspezifischen Informationssysteme und ihre Kommunikationsbeziehungen. Zur Repräsentation autonomer Akteure und Lösung zwischen den Akteuren bestehender Koordinationsaufgaben bietet sich der Einsatz der Multiagententechnologie an. Die Multiagententechnologie liefert einen reichhaltigen Vorrat an Konzepten, Modellen und Methoden, um gerade solche Koordinationsaufgaben unter Berücksichtigung der Ziele einzelner Akteure und ihren Zielbeziehungen zu lösen. Entsprechende Softwarearchitekturen für Multiagentensysteme erlauben die effiziente Implementierung von bottom-up-Koordinationsverfahren und basieren damit nicht auf konventionellen, hierarchischen Ansätzen der Planung und Steuerung. In Multiagentensystemen wird das individuelle Verhalten von Akteuren durch Softwareagenten repräsentiert. MAS bieten somit Ansätze, Probleme in einer verteilten Umgebung adaptiv und flexibel zu lösen. Die Basis für die jeweiligen Informationssysteme bildet ein Softwareagent. Der Zusammenschluss, dieser auf mehrere Informationssysteme verteilte Softwareagenten, bildet ein Multiagentensystem. Für die Interaktionen innerhalb des verteilten Systems wird die Standardkommunikationsschnittstelle der Softwareagenten verwendet. Abb. 2 zeigt die Softwarearchitektur der einzelnen 763 Informationssysteme und ihrer Schnittstellen in einem UML-Komponentendiagramm. Die Gesamtarchitektur besteht aus einem Informationssystem für die Akteure vom Typ Busfahrer, dem BusDriver Information System, einem Informationssystem für die Akteure vom Typ Ground Handling Service Manager, dem Ground Handling Service Manager Information System, einem Informationssystem für die Akteure vom Typ Airline Service Provider, dem Airline Service Provider Information System und einem Informationssystem für die Akteure vom Typ Airline, dem Airline Information System. Jeder Akteur kann im Lieferkettenmodell mehrfach vorhanden sein. Das BusDriver Informationssystem ist das einem Busfahrer zu Verfügung stehende Informationssystem. Es besteht aus den Subkomponenten BusDriver Agent und einem geographischen Positionierungssystem. Das Positionierungssystem ermittelt die aktuelle geographische Position und stellt diese dem BusDriver Agent zur Verfügung. Der BusDriver Agent liefert dem Ground Handling Service Manager Information System Informationen über die aktuelle Verfügbarkeit und geographische Position des Busses. Der Busfahrer wird vom Ground Handling Service Manager Information System über den nächsten durchzuführenden Passagiertransport informiert. Für einen Bus kann ein GPS-Empfänger zur Ermittlung der augenblicklichen geographischen Position verwendet werden. Global Positioning System (GPS) ist eine satellitengestützte Navigations- und Positionierungstechnik. GPS-Empfänger bestimmen aus den Signalen, die aus den Satelliten ausgesandt werden, den genauen Standort auf der Erde. GPS entspricht den Anforderungen der Positionsbestimmung auf dem Flughafenvorfeld im Freien und der erforderlichen Genauigkeit. Abbildung 2. UML-Komponentendiagramm der Softwarearchitektur Das Ground Handling Service Manager Information System ist eine Koordinationskomponente. Es besteht aus den Subkomponenten Ground Handling Service Manager Agent, GIS und GIS GUI. Der Ground Handling Service Manager Agent erhält vom Airline Service Provider Information System Informationen über die durchzuführenden Aufträge mit den zugehörigen Terminal- und Parkpositionen. Zusammen mit den durch das BusDriver Information System gelieferten Daten über die aktuelle Verfügbarkeit und geographische Position der Busse wird mit Hilfe der GIS Subkomponente die Zuordnung der durchzuführenden Aufträge zu den Bussen vorgenommen. Durch eine Routenrechnerfunktion in der GIS Subkomponente wird der verfügbare Bus mit der geringsten Anfahrtsdistanz gewählt. Die GIS GUI Subkomponente bildet das aktuelle Geschehen 764 am Vorfeld des Flughafen graphisch auf einer Karte virtuell ab. Die Zeitdauer, die für die einzelnen Passagiertransporte benötigt wurde, wird vom Ground Handling Service Manager Agent an das Airline Service Provider Information System übermittelt. Die gesammelten Anforderungen lassen auf den Einsatz der Technologie der Geoinformationssysteme (GIS) schließen. Ein Geoinformationssystem dient der Erfassung, Speicherung, Analyse und Darstellung aller Daten, die einen Teil der Erdoberfläche und die darauf befindlichen technischen und administrativen Einrichtungen sowie geowissenschaftliche, ökonomische und ökologische Gegebenheiten beschreiben. Das Airline Service Provider Information System hat eine Vermittlerrolle. Es besteht aus der Subkomponente Airline Service Provider Agent. Der Airline Service Provider Agent verhandelt mit dem Airline Informationssystem über die zu erbringende Servicedienstleistung und vermittelt die notwendigen Informationen bezüglich Terminal- und Parkposition der einzelnen Flugzeuge vom Airline Information System zum Ground Handling Service Manager Information System. Eine Analyse der vom Ground Handling Service Manager Information System übermittelten Information über die benötigte Zeitdauer zeigt hier die Effizienz des Lieferkettenmodells auf. Das Airline Information System ist die Schnittstelle des Kunden, der Airline, zum Softwaresystem. Es besteht aus der Subkomponente Airline Agent. Der Airline Agent verhandelt mit dem Airline Service Provider Information System über die zu erbringende Dienstleistung und liefert dem Airline Service Provider Information System die Informationen über die abzufertigenden Flugzeuge. 5. Evaluation 5.1. Simulationsmodell In diesem Abschnitt wird die in Kapitel 4 vorgestellte Softwarelösung evaluiert. Da der Einsatz der Informationssysteme im Realsystem nicht evaluiert werden kann, wählt man hier als Evaluierungsmethode die Simulation des Lieferkettenmodells. Hier wird der Spezialfall der Multiagentensimulation (MASim) verwendet. Für die Simulation des Lieferkettenmodells kann folgendes Simulationsmodell erstellt werden. Es werden die vier Agenten der in Kapitel 4 vorgeschlagenen Softwarearchitektur als Agentenklassen mit ihrem dort definierten Verhalten definiert. Zusätzlich gibt es einen World Agent. Das Szenario wird abgeleitet aus dem EU-FP6-IST Projekt BREIN, in dem der Flughafen Stuttgart als Anwendungsszenario zur Verfügung steht. • • • • World Agent: Der World Agent repräsentiert die Umwelt, in der die Agenten leben. In diesem Fall werden die geographischen Daten des Vorfelds des Flughafens geordnet nach thematischen Schichten wie z. B. Fahrwege und Parkpositionen aus Datenfiles in die Simulation geladen. Alle anderen Agenten können sich dieser geographischen Information bedienen. BusDriver Agent: Der BusDriver Agent repräsentiert einen Bus. Die Aufträge mit den Auftragsinformationen werden bei Verfügbarkeit an diesen erteilt. Der Bus Driver Agent sendet stetig seine aktuellen Status und seien geographische Position an den Ground Handling Service Manager Agent. Der kürzeste Fahrtweg kann mit Hilfe der geographischen Informationen des World Agenten ermittelt werden. Die Geschwindigkeit der Busse ist konstant. Ground Handling Service Manager Agent: Der Ground Handling Service Manager Agent koordiniert die durchzuführenden Aufträge an die verfügbaren Busse. Eine Visualisierung des Geschehens am Vorfeld wie im Ground Handling Service Manager Informationssystem in Kapitel 4 vorgesehen kann durch die Simulationsplattform geleistet werden. Airline Service Provider Agent: Der Airline Service Provider Agent informiert den Ground Handling Service Manager über die durchzuführenden Passagiertransporte und wertet die 765 • benötigten Zeiten für die einzelnen Busfahrten aus. Die Verhandlungen über die Dienstleistung mit der Airline werden in der Simulation nicht abgebildet. Airline Agent: Der Airline Agent repräsentiert ein abzufertigendes Flugzeug. Bei Ankunft eines Flugzeuges wird der Airline Service Provider Agent über den Auftrag und die zugehörige Auftragsinformation in Kenntnis gesetzt. 5.2. Simulationswerkzeug Für die Simulation des hier beschriebenen Lieferkettenmodells wird eine Simulationsplattform mit der Fähigkeit geographische Daten verarbeiten zu können benötigt. Frühere Arbeiten skizzieren Kopplungenarchitekturen von GIS und MASim und deren Implementierung, die diese Fähigkeit mit sich bringen [13][14]. Das vorgestellte System aus dem Beitrag [13] wird als Simulationsplattform für die Evaluierung verwendet. Diese Kopplung von GIS und MASim basiert auf einem eigenen in JAVA implementierten GIS und einer auf dem JADE (Java Agent DEvelopment Framework) aufbauenden MASim. Die Kontrolle des Gesamtsystems liegt hier bei der GIS Komponente. Das MAS ist wie eine Analysefunktion direkt in das System eingebunden. 5.3. Experiment Zu beweisen gilt es, dass durch die Adaptivität des Lieferkettenmodells bezüglich der Dimension Raum, also durch den Einsatz der Technologien aus der Geodatenverarbeitung, die benötigte durchschnittliche Dauer für eine Busfahrt effizienter ist als ohne die Eigenschaft der Adaptivität. Es werden zwei Versuchszenarien simuliert. Im ersten Versuchszenario nutzt der Ground Handling Service Manager Agent die Information über die geographische Lage der einzelnen BusDriver Agents um mit Hilfe einer Routenberechnungsfunktion (Dijekstra) des GIS dem verfügbaren BusDriver Agent mit dem kürzesten Anfahrtsweg den Auftrag zuzuordnen. Im zweiten Versuchszenario werden die Aufträge dem ersten verfügbaren Bus Driver Agent zugeordnet. Auf diese Weise entsteht eine Vergleichbarkeit der durchschnittlichen Dauer für eine Busfahrt. Unterschiedliche Verhaltensfunktionen sind zu diesem Zweck im Simulationsmodell für den Ground Handling Service Manager Agent zu implementieren. Im Simulationsmodell werden 200 aus dem Realszenario abzufertigende Flugzeuge betrachtet. Der Simulationszeitraum ist ein Tag, ein Simulationsschritt ist 10 Sekunden. Die Geschwindigkeit der Busse wird im gesamten Simulationsmodell als konstant angenommen, so dass ein kürzerer Weg eine Zeitersparnis bedeutet. Für die Durchführung die Passagiertransporte stehen zehn Busse zur Verfügung. Im Szenario existiert ein Ground Handling Service Manager Agent und ein Airline Service Provider Agent. Den Busfahrern wird in beiden Versuchen unterstellt auf den Verkehrwegen des Vorfelds den kürzesten Weg zwischen zwei Positionen am Vorfeld finden zu können. Für das Aufnehmen und Aussteigen der Passagiere wird eine konstante Zeitdauer angenommen. Die Zeit für einen Passagiertransport wird als Zeitraum zwischen dem Zeitpunkt der Auftragszuweisung und dem Zeitpunkt der Statusmeldung über die Verfügbarkeit definiert. 5.4. Simulationsergebnis Die Simulation selbst wird auf der Oberfläche des Simulationswerkzeugs visualisiert. Während der Durchführung werden die Zeiten für die einzelnen Passagiertransporte durch den Airline Service Provider Agent in ein Logfile geschrieben. In Abb. 3 ist die Auswertung der Zeitreihen in einem Diagramm zu sehen. Auf der x-Achse ist die Uhrzeit des Anfangszeitpunktes des Auftrages angetragen, auf der y-Achse wird die Dauer des Passagiertransportes in Minuten dargeboten. Für beide Versuchsszenarien gibt es eine Zeitreihe im Diagramm. Die mit Kreisen markierten Stellen 766 weisen darauf hin, dass der Versuch, in dem keine räumliche Adaptivität durch den Einsatz von GIS-Funktionalitäten vorhanden ist, die Zeitdauer für die Durchführung eines Auftrags tendenziell größer ist. Dieses Ergebnis bestätigt auch den Wert der durchschnittlichen Zeitdauer. Die einzelnen Ausreißer, die in der Zeitreihe ohne Adaptivität eine bessere Zeit liefern als in der Zeitreihe mit Adaptivität, lassen vermuten, dass der Grund in der nicht vorausschauenden Koordination zu suchen ist. Es wird immer der BusDriver Agent mit der geringsten Anfahrtsstrecke gewählt. Ein besseres Ergebnis wäre z. B. zu erzielen, wenn für die nächsten beiden Aufträge die Summe der Anfahrtsstrecken möglichst gering sein soll. Die zufällige Auswahl der freien BusDriver Agents im Versuch ohne Adaptivität zeigt diese Fälle auf. Abbildung 3. Auswertung der Simulation 6. Zusammenfassung und Ausblick Diese Arbeit zeigt einen Ansatz für eine Softwarearchitektur, die die Problemstellung der Individualisierung in einem Lieferkettenmodell für Passagiertransporte am Flughafen aufgreift. Focus liegt hier auf der Eigenschaft der Adaptivität im Bezug auf die Dimension Raum. Der Beitrag definiert die Ausprägungen des Individualisierungsproblems und transformiert diese in die vorgestellte Softwarearchitektur. Die Anforderungen des Individualisierungsproblems konnten erfolgreich umgesetzt werden. Als weiterführende Arbeit steht die Untersuchung weiterer Versuchszenarien im Lieferkettenmodell für Passagiertransportsysteme am Flughafen an. Das Verschieben der konstanten Parameter wie z. B. der Anzahl der zur Verfügung stehenden Busse oder der Anzahl der durchzuführenden Fahrten wird mit Sicherheit zu interessanten Ergebnissen führen. Von einer geographischen Perspektive betrachtet kann das Lieferkettenmodell auf einen weiteren in der Fläche arbeitenden und zur Flugzeugabfertigung notwendigen Service dem Gepäcktransportservice ausgedehnt werden. Interessant ist die Tatsache, dass ein Gepäcktransporter das Gepäck mehrerer Flugzeuge auf einmal befördern kann. Ein weiteres Ziel kann die Beschreibung und Entwicklung weiterer Anknüpfungspunkte für die Eigenschaft der Adaptivität bezüglich der Dimension Raum sein. Wissenswert ist ebenso die Untersuchung der Auswirkungen dieser Adaptivitätspotentiale auf alle beteiligten Akteure im Lieferkettenmodell. Der in diesem Beitrag beschriebene Ansatz könnte zugleich in anderen Anwendungsgebieten eine Rolle spielen. Sowohl die Beschreibung eines generischen Ansatzes der Adaptivität bezüglich der Dimension Raum, als auch die Entwicklung eines generellen Ansatzes für eine Softwarearchitektur kann für die Forschung im Bereich der Individualisierung einen erheblichen Beitrag leisten. 7. Acknowledgement This work has been supported by the BREIN project (http://www.gridsforbusiness.eu) and has been partly funded by the European Commission’s IST activity of the 6th Framework Programme under contract number 034556. This paper expresses the opinions of the authors and not necessarily those 767 of the European Commission. The European Commission is not liable for any use that may be made of the information contained in this paper. 8. Literaturverzeichnis [1] Cheng V., Surface Operation Automation Research For Airport Tower And Flight Deck Automation, in: Proceedings of the 7th International IEEE Conference on International Transportation Systems, Washington, 2004, S. 607-612. [2] Confessore, G.; Liotta, G.; Grieco, R., A simulation-based architecture for supporting strategic and tactical decisions in the apron of Rome-Fiumicino Airport, in: Proceedings of the 37th Conference on Winter Simulation, Orlando, Florida, 04.-07. Dezember 2005, S. 1596-1605. [3] Dietrich, A. J., Mass Customization Informationssysteme – Anforderungsanalyse und Architekturentwurf, Dissertation, Universität Hohenheim, 2007. [4] Heiserich, O., Logistik: eine praxisorientierte Einführung, Wiesbaden 2002. [5] Hevner, A. R.; March, S. T.; Park, J.; Ram, S., Design Science in Information Systems Research, in: MIS Quarterly 28 (2004) 1, 2004, S. 75-105. [6] Kleinaltenkamp, M.; Burghard, W.: Standardisierung und Individualisierung – Bestimmung der Schnittstelle zum Kunden. In: Kleinaltenkamp, M.; Fließ, S.; Jacob, F. (Hrsg.): Customer Integration – Von der Kundenorientierung zur Kundenintegration. Wiesbaden 1996, S. 163-176. [7] Kirn, St.: Individualization Engineering - Gestaltung adaptiver Wertschöpfungssysteme für individualisierte Sachgüter und Dienstleistungen, Cuvillier Verlag, Göttingen 2008. [8] Lampel, J.; Mintzberg, H.: Customizing Customization. In: Sloan Management Review 38. 1993, S. 21-30. [9] Moll, P. (Hrsg.), Raumbezogene Informationssysteme in der Anwendung, Verlag Irene Kuron, Bonn 1995. [10] Piller, F. T., Mass Customization. Ein wettbewerbsstrategisches Konzept im Informationszeitalter, DeutscherUniversitäts-Verlag, Wiesbaden 2003. [11] Pine II, B. J.: Maßgeschneiderte Massenfertigung. Wien 1994. [12] Pestana, G; Silva, M.; Casaca, A.; Nunes J., An airport decision support system for mobiles surveillance & alerting. In: Proceedings of the 4th ACM international Workshop on Data Engineering For Wireless and Mobile Access, Baltimore, MD, USA, 12. Juni 2005, S. 33-40. [13] Schüle, M.; Bieser, T.; Karaenke P.; Kirn, S., Integration einer Multiagentensimulation in ein Geoinformationssystem., in: Bichler, M.; Hess, T.; Krcmar, H.; Lechner, U.; Matthes, F.; Picot, A.; Speitkamp, B.; Wolf, P. (Hrsg.): Multikonferenz Wirtschaftsinformatik, MKWI 2008, München, 26.2.2008 - 28.2.2008, Proceedings, GITO-Verlag, Berlin 2008. [14] Schüle, M.; Herrler, R.; Klügl, F., Coupling GIS and Multi-Agent Simulation – Towards Infrastructure for Realistic Simulation, in: Lindemann, G.; Denzinger, J.; Timm, I.; Unland, J. (Hrsg.): Multiagent System Technologies, Proceedings of the 2nd MATES 2004, Springer, Berlin 2004, S. 228-242. [15] Spring, M.; Dalrymple, J.F.: Product customization and manufacturing strategy. In: International Journal of Operations & Production Management 20. 2000, S. 441-467. [16] Supply-Chain Council: SCOR Model, Version 7.0. 2007. [17] Toffler, A.: Future Shock. New York 1970. [18] Visser H. G.; . Roling, P: Optimal Airport Surface Traffic Planning Using Mixed Integer Linear Programming, in: Proceedings of the AIAA's 3rd Annual Aviation Technology, Integration, and Operations (ATIO) Technical Forum, Denver 2003. 768 FROM A RESEARCH TO AN INDUSTRY-STRENGTH AGENT PLATFORM: JADEX V2 Alexander Pokahr, Lars Braubach1 Abstract Since the beginning of the nineties multi-agent systems have been seen as a promising new software paradigm that is capable to overcome conceptual weaknesses of mainstream object-oriented software solutions. Despite these theoretical advantages, in practice agent software is rarely used and as software paradigm has been widely superseded by the service-oriented architecture. One key reason for the slow adoption of agent-based ideas is that existing agent software in most cases does not provide business-relevant features such as persistency or scalability. Hence, in this paper it is analyzed which essential business requirements exist and a solution agent platform architecture is presented. This architecture has been implemented within the Jadex V2 agent platform, which is a complete overhaul of the V1 architecture. 1. Introduction In literature agent orientation is often promoted as new software paradigm with which shortcomings of object-oriented solutions can be solved. Nonetheless, in practice only few agent-based systems have been successfully deployed and the paradigm is not well recognized by industry practitioners. One question that will be tackled in this paper is, why this is the case and how this can be changed. In general, agent orientation brings a new perspective into software engineering and considers an application of being composed by a multitude of individual agents working together to provide the required functionalities. The agent paradigm assumes that an agent is an autonomous entity that acts on its own behalf and communicates with other agents via asynchronous messages. Hence, agent orientation is a paradigm that naturally fits for the development of loosely-coupled distributed and concurrent systems. On the one hand, distribution is supported by the fact that agents make no assumptions where other agents are located meaning that the location of an agent is transparent for its communication partners. This allows a software developer to distribute agents across system borders as needed without having to change the application logic. On the other hand, concurrency is supported by the agent’s autonomy, i.e. each agent can work independently from others and thus the agents of a multi-agent system can in principle be executed in parallel. Therefore, multi-agent systems provide a clear metaphor for building potentially massively parallel applications. With respect to current and emerging trends the importance of distribution and concurrency is further illustrated. In the following three of the most prevailing trends (cf. e.g. [10]) are sketched: • Ubiquitous computing is the vision of Weiser [15] and means that computing devices become smaller and smaller and finally vanish into the environment. In a ubiquitous environment a lot 1 Distributed Systems and Information Systems Group, University of Hamburg, Vogt-Kölln-Str. 30, 22527 Germany. 769 • • of independent small devices exist and they often need to build up a heterogeneous service network in order to fulfill user requirements. Hence, ubiquitous computing needs a programming paradigm that takes into account distribution as a core concept. Autonomic computing [7] puts the administration effort of systems in the focus of attention. The basic idea here is to build self-* (-heal, -optimize, -configure, -protect) systems, which can manage themselves by monitoring and adjusting their individual components. Such behavior can only be achieved when components can act independently from each other and take over different responsibilities. Typically, in an autonomous system for each business component a dedicated management component is responsible for controlling the behavior of the first. Hence, autonomous computing architectures are conceptually agent-based and per-se concurrent. Multicore processors [2] have reached the consumer market since 2006 and improve processing power by providing more than one processing unit on board of a single chip. Nowadays dual or quadcore processors are common and it seems reasonable that in the near future multicore processors will be available with a huge number of cores. In order to exploit that processing power the software has to be programmed in a way that supports multiple processes or threads. This is feasible using state of the art programming languages. Nevertheless the available concepts for controlling concurrency such as semaphores and monitors are very low-level and lead to error prone code that additionally is hard to program. Therefore, a programming paradigm providing higher-level concurrency concepts is needed. If agent technology provides solutions for these and other challenges the question arises, why agent orientation has not yet made it to mainstream software engineering projects and so few systems have been deployed. In the following some key reasons are presented: • Heterogeneity of the research field leads to the severe problem that there are no agreed-upon conceptual frameworks. Therefore it exists a multitude of programming languages, methodologies and agent platforms making the choice of the right artifacts a hard one. • The lack of interest of industry players causes too few respectively too expensive industry-grade agent tools being available. One reason for the low number of companies selling agent-oriented solutions is the high research and development effort required before agent products can be sold. Many companies tried to use agent technology in the nineties during the agent hype phase and failed due to the immatureness of the field. As no immediate return on invest was producible the paradigm has been abandoned and the current service-oriented architecture hype lets many companies concentrate on the service wave. • The lack of integration with existing mainstream technology and tools makes agent technology risky to use for companies, because they have to decide whether they want to rely on proven technologies or utilize agent approaches – mostly they cannot have both. But, as agent orientation has orthogonal advantages with respect to existing paradigms, the choice in such a setting is always to use the proven technology. In the following it will be investigated how these challenges can be addressed under a technical viewpoint, i.e. with respect to adequate infrastructure support. For this purpose in Section 2 the requirements for industry-grade agent software are examined. In Section 3 existing agent solutions are evaluated from the perspective of a business user. Thereafter, in Section 4 the Jadex V2 architecture is presented and it is detailed how the architecture helps to address the issues mentioned. In Section 5 the content is summarized and an outlook to planned future work is given 2. Requirements Much has been said (cf. [8, 10]) about the advantages of agent technology for building applications in the context of the current and emerging trends as outlined in the introduction. Many of these advantages are closely related to functional requirements, such as the ability to adequately react to 770 changes in a dynamic environment [9] or the necessity of high-level abstractions to support decomposition and organization of large application structures [8]. For a widespread industrial adoption, a technology not only has to provide the functional capacities to solve the specific problems at hand, but also has to answer the question how well it embeds into some given business context. In [3], a criteria catalog was developed that includes, besides functional aspects, especially also non-functional requirements that allow assessing how well an artifact under investigation fits to the peculiarities of an application context. These non-functional requirements (also called software quality attributes) are the key-factor when moving from research prototypes to industrial quality software. In the following, the most important criteria are quickly sketched. • • • Usability refers to the features of an artifact from the viewpoint of a single user or usage context. Relevant criteria in this category are individualization and extensibility, which state how easily an artifact can be adapted to a concrete usage context. From a developer perspective, simplicity/intuitivity and learnability/familiarity are important factors that indicate how fast and efficient an artifact can be put into practice. Operating ability criteria are performance, robustness, stability and scalability, which describe how well the artifact behaves when considering varying system loads (performance), presence of failures (robustness), long term behavior (stability) and varying problem sizes (scalability). Pragmatic aspects are not related to using or operating an artifact, but mostly to the incurred efforts, costs and risks. Concretely, the maturity of an artifact has a direct effect on the risk of a software project. Costs are usually comprised of initial (purchase) costs and follow-up costs, e.g. for operation/maintenance or for training of personnel. Finally, additional efforts typically arise due to technical boundary conditions of an artifact, such as incompatibilities to other existing, required or preferable technology. It should be noted that a simple “the more the better” rating (e.g., of performance) is not suitable for any concrete software project, because these criteria are highly interrelated. Depending on the business context, suitable trade-offs have to be found, e.g. between simplicity, performance and costs. As a consequence, generic software infrastructures, e.g. for agent based systems, need to be adaptable to business needs. 3. Related Work As outlined in the last section, industrial uptake of agent technology does not directly follow from the inherent conceptual advantages compared to more conventional software paradigms like objects, components or services. In addition to those conceptual advantages, agent infrastructures need to exhibit quality attributes similar to the conventional implementations, such as Java EE application servers. These two aspects can be paraphrased as “having something to add” and “having nothing to remove”. Agents have something to add to existing solutions, because they, e.g., facilitate more flexibility and quick adaptation to changes and can introduce a higher conceptual level when considering goals (“what should be done?”) instead of only actions (“how is something done?”). But agent infrastructures should also have nothing to remove. Especially features, which are well supported by conventional paradigms, like the support for modular software development, integration with existing technologies such as databases or user interface frameworks and high operating ability (scalability, robustness, etc.), could be knock-out criteria, when being absent from agent-based solutions. Infrastructures for agent development therefore need to balance the two above mentioned aspects. Existing agent infrastructures can be broadly categorized into two different approaches. The first approach focuses on the first aspect (“having something to add”), i.e. this approach aims at building specialized agent-oriented solutions. The second approach tries to “having nothing to remove” by 771 reusing existing conventional tools and techniques as much as possible and adding agent-oriented concepts and technology only in a selective way. The primary advantage of building specialized agent-oriented solutions (first approach) is that agent-specific characteristics can be taken fully into account. Therefore, the expressive power of the agent paradigm can be used for building various aspects of an application. The major drawback of this approach is that these specialized solutions usually do not fit well into existing traditional infrastructures. This means that existing features of e.g., applications servers, such as persistence, can not easily be reused in the agent context. As a result, proprietary solutions are implemented to support these features in a more agent-suitable way. An example of this approach is the widely used JADE agent platform (see e.g.[1]), which aims at providing agent-oriented middleware services according to the FIPA specifications [13]. For supporting non-functional requirements, additional components have been developed that e.g. support agent persistence or reliable messaging. Among the advantages of JADE is the simplicity, such that JADE can also be used for rapid proto-typing of agent applications, and the large user base, which results in numerous add-ons of varying quality being available. JADE has limitations with regard to the seamless integration with mainstream technology and poor scalability due to the use of a thread-based concurrency model. Further examples of the first approach are other agent platforms such as 3APL and Jason [1]. The main motivation behind the second approach (reusing existing conventional tools and techniques) is minimizing the gap between agent technology and the software engineering mainstream. In this approach, the seamless deployment of agents or agent-like features into existing objectoriented/component infrastructures is seen as the appropriate way to overcome the barriers that currently hinder the adoption of agent technology in the industry. Besides encouraging industry adoption, a major benefit of this approach is the reduced implementation effort and increase in maturity due to relying on proven industry grade products. Moreover, due to adherence to industry standard APIs, developers can choose from the large body of commercial or open source implementations (e.g. of Java EE application servers), which in turn might offer certain advantages or disadvantages depending on the application context. The drawback of this approach is that the usage of standard technologies imposes certain constraints on which and how agent concepts can be implemented. Depending on the used basis, therefore usually only a subset of existing agent features can be realized without compromising the mainstream integration and as a result, only advantages specific to those agent features can be obtained. Examples of this approach are agent platforms such as Whitesteins LS/TS [14] and the Agentis AdaptivEnterprise Suite. Both focus on integration with a Java EE technology base, but whereas the main aim of the Agentis suite is integrating BDI-style goal orientation, LS/TS puts more weight on agent concurrency and message passing. Among the advantages of LS/TS is the ability to run the same application on different execution environments (Java SE/Java EE) targeted to development vs. production settings and also the availability of different reasoning engines ranging from simple task-based to more high-level goal-oriented agents. Main criticism with regard to LS/TS is the high complexity, which makes it unsuitable for rapid prototyping of agent applications and the fact that the platform is closed and therefore no user community is available. Besides platforms, there are also programming languages like the JACK agent language [1], extending languages like Java to include agent-oriented constructs. Both approaches have their merits. The first approach is suitable for contexts in which agent advantages have a big payoff (e.g. logistics domains, [12]) and therefore the easy integration with mainstream technologies is not so important. On the other hand, the second approach allows integrating agent-oriented ideas into an existing business IT landscape and is therefore seen as the more promising approach for achieving mainstream industrial uptake of agent technology. 772 4. Jadex V2 Architecture The Jadex agent framework (see e.g. [1]) mainly consists of the agent infrastructure, and tools for the development of agent systems. The concrete requirements for Jadex V2 have been revealed by an evaluation of V1 against the criteria catalogue from Section 2. In the following a short review of the evaluation with respect to the non-functional criteria is given. • Usability The usability of Jadex V1 has been evaluated to high due to several reasons. First, Jadex does not introduce a new programming language, but relies completely on a hybrid language approach. This approach distinguishes between structural and behavioral aspects, which are specified in the suitable mainstream languages XML and Java respectively. Second, the BDI concepts are interpreted in an intuitive way, which is near to their folk-psychological meaning and includes an explicit representation of goals. This also allows a natural transition from modeling to implementation via existing goal-oriented methodologies like Tropos or Prometheus. Third, Jadex also fulfills software technical reusability requirements by providing a BDI-based modularization concept called capabilities. • Operating ability The operating ability has been identified as one crucial aspect for industrial exploitation of agent platforms and is hence very well-supported by commercial platforms like JACK or LS/TS. In V1 operating ability has been evaluated to only fair. In order to assess the quality of agent platforms in this respect, several small benchmarks have been conducted on a standard desktop PC as explained in the following. The performance has been tested via agent creation resp. termination time. In this respect the creation/termination of agents was at a rate of circa 50 resp. 250 agents/sec. The scalability has been measured by the number of agents that can be started on a standard Java VM with normal 64MB heap space. The number of agents was limited to about 200, which is mainly caused by the high 200kb memory footprint of agents. The robustness and stability are mainly features of the agent platform. Robustness is to some degree ensured by the isolation of agent execution, which prohibits the propagation of errors to the platform layer, i.e. a faulty agent cannot easily cause the platform to fail. The stability has been tested via long-running test-cases, which demonstrate that at the platform as well as the architecture layer no memory-leaks are existent. • Pragmatic aspects This category led to a good evaluation for Jadex V1. The acquisition and installation of Jadex is unproblematic, because it can be directly downloaded from internet and also contains extensive documentation material. Furthermore, the technical boundaries are kept low. This is achieved by a clean separation between the platform and architecture layer and extension points at both layers. In general, the evaluation showed that the non-functional aspects usability and pragmatics are already covered to a sufficient degree in V1. Hence, in Jadex V2 the objectives are keeping the levels of usability and improvements should especially be targeted to the operating ability area. The resulting Jadex V2 agent infrastructure is composed of the agent platform and the agent kernel(s) (cf. Figure 1). The responsibility of the agent platform is to ensure the continuous execution of the agents inhabiting the platform. On the contrary, the agent kernel determines the agent architecture used, i.e. it defines which concepts can be used for programming agent behavior. The infrastructure has been designed in such a way that it allows kernels as well as platforms being used interchangeably. On the one hand this means that in combination with a platform different kernel implementations can be used (e.g. BDI and/or rule-based). On the other hand, it is also possible to use a kernel on different kinds of platforms (e.g. Standalone or JADE). The details of the platform and kernel architectures will be explained in the following sections. In this respect it will be especially highlighted how platform and kernel address the requirements from Section 2. 773 4.1. Platform Architecture The Jadex platform architecture exhibits two main characteristics: 1. It can execute agents regardless of their internal architecture. 2. It can exploit an arbitrary middleware for reusing available services. The first aspect is important, because applications differ in the complexity of agents that is required. If e.g. ant algorithms shall be built it is sufficient to use simple reactive agent architectures, while problem solving tasks might require cognitive capabilities and therefore deliberative agent architectures are a better fit. One could even argue that it can have advantages to build parts of the application using different agent architectures according to the complexity of the agents at hand. Rule-based BDI … Standalone Platform Middleware Adapter … J2EE Platform Agent Platform … Bridge … Platform Platform Service Service FIPA (AMS, DF,…) Clock … Platform Platform Execution Execution Middleware Middleware Middleware Infrastructure Protocols Jadex Agent Infrastructure Kernel Kernel FIPA Application Application Application Library Library Custom Custom Code Code Figure 1: Jadex V2 architecture In order to execute different agent architectures within a single platform it is necessary to define the responsibilities of the kernel and the platform. A platform has the minimal duties of executing an agent, delivering messages to the agent, notifying the agent at certain time points and indicating that an agent should kill itself. Agent kernels must therefore exhibit the following methods for an agent: public boolean executeAction(); public void messageArrived(IMessageAdapter message); public void notifyDue(); public void killAgent(); The executeAction() method has the purpose to execute an agent for a single step, i.e. the agent should perform an action and return the control to the platform in a short period of (CPU) time. If the agent execution exceeds some platform-defined limit, the platform might decide to abort agent execution. The boolean return value indicates if the agent wants to be executed again. If this is not the case it can be reactivated by messages or a timing info. The messageArrived() method delivers a message to an agent for processing. It is noteworthy here, that the supplied message has to be an IMessageAdapter, which is an interface that hides platform-specific transport details and allows an agent to retrieve all information about the message in a generic way. This means that Jadex does not assume a fixed message structure such as FIPA ACL [13]. Instead, the message adapter provides access to name-value pairs of the underlying message and additionally to the message type. The message type contains meta information about the message and can be used to extract the relevant information from the message. In this way besides FIPA ACL also alternative formats such as Email can be supported. The notifyDue() method is necessary for allowing an agent to be reawakened at an agent-defined point in time. For this purpose the agent uses the clock service for registering the desired time point. The service then guarantees to call the notifyDue() method on the agent at this time point. Different clock service implementations allow for running the same application in simulation as well as real-time execution mode [12]. Finally, the killAgent() method requests the agent to kill itself and starts its takedown process. For an agent it is necessary to rely on services of the platform adapter. These basic services are especially needed for sending messages and, waking resp. cleaning up the agent, and fetching the platform. A cutout of the adapter interface is shown below: 774 public void sendMessage(IMessageAdapter message); public void wakeup(); public void cleanupAgent(); public IPlatform getPlatform(); Using the sendMessage() method an agent can send a message via the platform. The platform is then responsible for all aspects of the transport, which can be either locally or remotely depending on the addresses of the target agents. The wakeup() method is needed to ensure that an agent’s processing can be activated. It is e.g. called when a message is placed in the agent’s inbox or other (kernel-specific) events happen and requests the platform scheduler to call executeAction() on the corresponding agent. CleanupAgent() is the platform equivalent to killAgent() on the agent side and initiates the removal of the agent. An agent can call this method if it wants to be disposed. The platform always has to know when an agent is going to be killed, because it handles the agent’s resources and has to release them afterwards. Finally, the getPlatform() method gives an agent access to the platform itself and its platform services (cf. Fig. 1). Platform services are a mechanism for building up the platform’s functionality in an extensible manner. If the platform should e.g. support the FIPA standards, services for AMS and DF can be added. Agent platforms in most cases are devised for a specific application scenario, e.g. a lightweight platform for a mobile device versus a heavyweight platform for back office functionalities. The second criterion of being able to reuse existing middleware allows developing different kinds of platforms for Jadex agents and facilitates the integration with proven solutions. Picking up the example it makes sense to build a platform for mobile devices with a low resource footprint restricting its functionalities to a minimum, whereas a platform for back office tasks needs features like high dependability and hence could be build upon a Java EE server. Regarding the requirements discussed in Section 2 the platform architecture directly contributes to the usability and pragmatics and indirectly also to the operating ability criteria. With respect to the usability it supports individualization and extensibility to a high degree. On the one hand kernels and platforms are rather independent of each other and on the other hand the flexible service-based platform infrastructure supports the adaptation of platforms according the application context. Considering the pragmatic dimension the proposed architecture mainly contributes to the technical boundary conditions, because it facilitates the integration with existing middleware infrastructures. Finally, operating ability is indirectly supported by the customizable service approach of the platform, which allows services being tailored to the concrete demands. E.g. if stability and robustness are crucial, persistent AMS und DF services could be developed. 4.2. Rule Kernel Architecture To simplify the development of different kernels as part of the Jadex agent infrastructure, a basic rule kernel has been devised. The goal of this kernel is to form a basis for different concrete reasoning kernels that already provides or simplifies the provision of quality attributes. The rule kernel ensures that concrete kernels can be built rather independently from (non-functional) quality attributes thereby focusing on functionality (i.e. describing the behavior of agents). It is realized as a generic rule engine and concrete kernels are specified in terms of a state structure and transition rules that operate on the state (see Figure 2). The declarative specification of the concrete reasoning engine leaves much more room for optimizing the execution in different directions than what would be possible with a procedural implementation. Basis of the rule kernel is the interpreter, which connects the kernel to the underlying platform by implementing the required Java interface (cf. Section 4.1). The interpreter itself represents a typical rule engine [5] consisting of an agenda, a pattern matcher and a state or working memory. Rules are specified in a CLIPS-based [5] condition language, whereby the action part is assumed to be pure Java. The pattern matcher determines based on the state and a given set of rules at any time the 775 possible variable assignments to fire some of the rules. The matching rules with corresponding variable assignments are stored as so called activations in the agenda. In each agent execution step, the interpreter fires one activation from the agenda, and informs the pattern matcher about the incurred state changes. The pattern matcher then updates the agenda to reflect newly matched or no longer matched activations. In addition to activations from the agenda, the interpreter has to execute so called external entries, which represent asynchronous occurrences happening parallel to the agent execution, such as messages received from other agents. During each execution step, these entries are copied to the state, leaving details of, e.g., message processing to the concrete kernel rules. Flyweights Parsers … Runtime Model Metamodel … Kernel Kernel Rules Rules Feature 1 Feature 2 … OAV OAV State State Java Impl. J2EE Impl. … Pattern Pattern Matcher Matcher Rete Impl. Treat Impl. … Agenda Ext. Entries … Interpreter Interpreter (Rule (Rule Engine) Engine) Rule Kernel OAV OAV Type Type Model Model Concrete Kernel (e.g. BDI) Programmer‘s Programmer‘s Interface Interface (optional) (optional) Figure 2: Jadex V2 Rule Kernel Architecture (concretizes kernel layer of Figure 1) The state uses an OAV (object-attribute-value) triplet representation of data, because this representation can be easily mapped to different implementations (e.g. Java objects, database tables, RDF, etc.) that support different quality attributes. The type model describes the structure of data items that can be stored in the state and is used for data access as well as (optional) runtime consistency checking in the rule kernel. Usually a separation in metamodel and runtime elements is useful, to distinguish between data shared among all agent instances of the same type and runtime data that is private to each agent instance. The kernel rules describe all possible forms of state transition and thereby determine the behavior according to a specific agent architecture. Different implementations of the pattern matcher exhibit different performance characteristics. E.g. the Rete algorithmbased [4] implementation has a higher memory footprint due to caching partial matches, but has superior execution speed compared to less memory consuming implementations, such as TREAT [11]. The manipulation of data based on an OAV model and the specification of behavior in form of rules represent very low-level ways of interfacing with the system. Therefore, concrete kernels will usually offer a higher level programming interface, which hides low-level details. For example, flyweights [6] can provide a Java object like access to the data in the state and parsers can hide rule details behind Java-like expressions. The rule kernel architecture contributes to achieving desired quality criteria (cf. Section 2) by providing an efficient base layer for concrete kernels. Operating ability criteria such as scalability and performance are achieved using proven rule-based technology such as the Rete algorithm. Individualization is supported by providing different implementations of the components. Therefore, different state representations allow adequate fulfillment of conflicting requirements depending on the situation (e.g. efficiency using in-memory objects, vs. robustness using database storage) and different pattern matcher implementations allow to choose between fast execution and low memory footprint. Also, in the pragmatics area, for technical boundary conditions different implementations can be developed for concrete execution environments, such as a state representation based on EJB technology for Java EE execution requirements. 4.3. BDI Architecture The Jadex BDI architecture has been described extensively in the literature (e.g. in [1]) and it has been one major objective of Jadex V2 to keep the BDI functionality and the offered programming 776 interface as similar as possible. Hence, here the Jadex BDI model will only be outlined briefly. In general, BDI agents are programmed with beliefs (subjective knowledge), goals (desired outcomes) and plans (procedural code for achieving goals). Jadex distinguishes the procedural knowledge in plans from the descriptive knowledge and the former is specified in Java classes while the latter is defined in an XML-based ADF (agent definition file). From within Java plans the developer can access agent functionality via API calls, which e.g. allow accessing beliefs or dispatching goals. In order to keep this programming model the same as in V1 a special layer has to be placed on top of the rule kernel. This layer internally uses the functionalities offered by the rule kernel and adds Java-based access facilities in the style of the flyweight pattern [6]. This means whenever the user calls an BDI-based method (such as getBelief()) the new layer will create a flyweight (here BeliefFlyweight), which exposes the same functionality as in V1 (here e.g. getFact()) and internally translates calls to OAV state operations. Internally, the BDI state representation as well as the BDI functionality has been specified in terms of a rule engine implementation. As already denoted the BDI state representation consists of two OAV type models: a metamodel and a runtime model. The metamodel contains elements that can be used for defining Jadex agent types and therefore allow specifying application-specific agent types and their beliefs, plans and goals. In addition, a parser has been implemented that reads/writes XML agent definitions to/from an OAV state. In contrast, the runtime model contains information about agent instances, such as the agent’s current belief, goal and plan instances. In addition to the state representation the BDI functionalities have been rebuilt using production rules. For this purpose the BDI functionalities have been categorized into different groups such as belief handling, event processing, goal processing, goal deliberation, and many more and for each group several rules have been devised. An example rule is illustrated in CLIPS-like notation below: ?plan <- (plan (processingstate “ready”) (lifecyclestate “body”)) ?agent <- (agent (plans contains ?plan)) => // Java code for plan execution The execute plan body rule states that whenever an agent has a plan that is in processing state “ready” and in lifecycle state “body” an activation will be created. The action side of this rule contains the concrete Java code for plan execution and in this case just resolves the value of the bound ?plan variable, fetches its plan body and invokes it. In V2, the existing set of V1 BDI functionalities has been completely rebuilt using the rule-based approach. Because rules have been grouped according to their functionality, it is now possible, to use streamlined BDI rule sets, e.g. when some advanced features, such as goal deliberation are not required. Additionally, new functionalities (e.g. emotions) can much more easily be added to the existing BDI functionality. Besides the BDI kernel it is planned to also develop a reactive kernel and a task-model based kernel. While the reactive kernel will consist of a simple API directly on top of the basic rule kernel (e.g. for ant-like agents), the task-model kernel will not use the rule base functionality but instead provide a simple object-oriented agent programming model (cf. JADE). 4.4. Evaluation The new Jadex V2 architecture has been devised in a way that makes the underlying rule kernel transparent to a high degree for the agent programmer. Hence, the evaluations for usability and pragmatics are not affected by the changed architecture, whereas the operating ability has been assessed again. In general the V2 operating ability has been evaluated to good, because the performance and scalability could be improved. Regarding the performance benchmark creation and deletion of agents could be improved by an order of magnitude to 500 resp. 2000 agents/s. Also the scalability could be improved. The number of agents that can be started on a standard Java VM with normal 64MB has enhanced to over 2000, each with a footprint of circa 25kb. This shows that the 777 proposed architecture is able to preserve the advantages of Jadex V1 while the operating ability is now comparable to commercial solutions available. 5. Conclusions and Future Work In this paper it has been argued that current trends such as ubiquitous computing and multicore processors require advanced distribution and concurrency concepts that are covered insufficiently by established software paradigms like object-orientation. Agent orientation offers solutions for these problems but is not extensively used in practice. One important reason for this is that the lack of integration with existing technology and tools. In this respect, only if agent systems “have something to add” and “have nothing to remove” they will be considered to be used in commercial settings. Nothing to remove means here that functional and in particular non-functional properties of existing solutions should be kept by agent-based offerings. To achieve this, the new Jadex V2 framework architecture has been presented. One main characteristic of this architecture is the strict separation between platform (execution environment) and kernel (agent architecture), which allows both being exchanged independently. In this way, on the one hand different agent architectures can be used on the same platform (e.g. BDI versus rule-based) and vice versa one kernel can be used in multiple execution environments (e.g. a mobile- vs. serverbased implementation). The platform architecture itself is characterized by a flexible approach using pluggable services, facilitating extensibility and adaptability to the application context. For kernel implementations a rule kernel base has been proposed, which offers a rule mechanism and an OAV state representation. On this (optional) rule kernel concrete kernel implementations such as BDI can be built. Using the rule kernel has advantages especially concerning non-functional aspects, because its usage is independent of its implementation and components can be adapted according to the concrete demands (e.g. for a fast execution the Rete rule matcher can be used). To further improve robustness and stability, future work will focus on the platform level. A Java EE platform adapter will allow executing agents in the context of application servers, which offer major advantages in the area of non-functional requirements by features such as built-in transactional execution, load management and replication. Furthermore, the standardized deployment procedures of application servers will lower the barrier for adoption and installation of agent-based solutions. 6. References [1] Bordini, R., Dastani, M., Dix, J., El Fallah Seghrouchni, A., Multi Agent Programming, Springer, 2005. [2] Borkar, S., Thousand core chips: a technology perspective. In Proc. of (DAC '07), ACM, 2007. [3] Braubach, L., Pokahr, A., Lamersdorf, W., A Universal Criteria Catalog for Evaluation of Heterogeneous Agent Development Artifacts, in: From Agent Theory to Agent Implementation (AT2AI-6), 2008. [4] Forgy, C., Rete: A Fast Algorithm for the Many Patterns/Many Objects Match Problem. Artif. Intell. 19(1), 1982. [5] Friedman-Hill, E., Jess in Action - Rule-based Systems in Java, Manning, 2003. [6] Gamma, E., Helm, R., Johnson, R., Vlissides, J., Design Patterns, Addison-Wesley, 1995. [7] IBM, Autonomic Computing: IBM’s Perspective on the State of Information Technology, IBM, 2001. [8] Jennings, N., An agent-based approach for building complex software systems. Commun. ACM 44, 4, Apr. 2001. [9] Kirn, S., Herzog, O., Lockemann, P., Spaniol, O. (Eds.), Multiagent Engineering, Springer 2006. [10] Luck, M., McBurney,P., Shehory, O., Willmott,S., Agent Technology: Computing as Interaction, AgentLink, 2005. [11] Miranker, D., TREAT: A Better Match Algorithm for AI Production System Matching, Proc. Of. AAAI’87, 1987. [12] Pokahr, A., Braubach, L., Sudeikat, J., Renz, W., Lamersdorf, W., Simulation and Implementation of Logistics Systems based on Agent Technology, in: Hamburg International Conference of Logistics (HICL’08), 2008. [13] Poslad, S., Charlton, P., Standardizing agent interoperability: the FIPA approach. In Multi-Agents Systems and Applications, Springer, 2001. [14] Rimassa, G., Greenwood, D., Kernland, M., The Living Systems Technology Suite. In Proc. ICAS’06, 2006. [15] Weiser, M., The Computer for the Twenty-First Century, Scientific American, September 1991. 778 RFID UND UBIQUITOUS SERVICES RFID (Radio Frequency Identifi cation), Sensorik und andere Technologien des Ubiquitous Computing erweitern die Möglichkeiten der betrieblichen Informationsverarbeitung um eine automatisierte Verknüpfung von Systemen mit physischen Objekten und bilden die Grundlage zum „Internet der Dinge“. In der Folge können einerseits etwa Prozesse in Logistik, Produktion, Verkauf und Aftersales deutlich feingranularer kontrolliert und gesteuert werden, z.B. in der Kühlkette eines Handelsunternehmens. Andererseits ermöglicht das Wissen über Abläufe in der physischen Welt auch erstmals die Umsetzung völlig neuartiger Geschäftsmodelle, z.B. KfzVersicherungen nach dem Prinzip „Pay-as-you drive“. Der erfolgreiche Einsatz in der Praxis erfordert jedoch ein tiefgreifendes Verständnis der notwendigen Basistechnologien und Standards sowie der Gestaltungsprinzipien für neue sensorgestützte Geschäftsprozesse bis hin zur Veränderung der Erfolgslogik einer Branche. Darüber hinaus ergeben sich auf der Kundenseite mögliche Akzeptanzprobleme in Bezug auf eine scheinbar omnipräsente Überwachung durch „Spy Chips“ und Anwendungen, die „nachhause telefonieren“. Leitungsgremium: Alois Ferscha, Johannes Kepler Universität Linz Elgar Fleisch, Eidgenössische Technische Hochschule Zürich & Universität St. Gallen (Federführender) Kai Rannenberg, Johann Wolfgang Goethe-Universität Frankfurt Programmkomitee: Oliver Christ, Leiter SAP Research Schweiz Martin Meints, ULD Kiel Florian Michahelles, Post Doc ETH Zürich, Associate Director Auto-ID Labs Hartmut Pohl, Fachhochschule Bonn-Rhein-Sieg Frederic Thiesse, Post Doc Universität St. Gallen, Leiter M-Lab & Retail Research Initiative RFID IN REVERSE LOGISTICS RESEARCH FRAMEWORK AND ROADMAP Lars Thoroe, Adam Melski, Matthias Schumann1 Abstract Reverse logistics is constantly gaining in importance for both research and practice. Research on RFID has so far concentrated on the use of RFID in order to support forward logistics processes, but is beginning to realize the specific potentials and benefits of RFID systems in this evolving research area. IS research has so far addressed individual and rather isolated aspects of this topic. In order to promote this evolving field of RFID research, we present a structuring framework and propose a roadmap for future research. 1. Introduction The integration of the real and the virtual world by the use of Ubiquitous Computing technologies promises new possibilities regarding the control of operational processes. In the context of logistics and supply chain management this integration corresponds to the linkage of flows of material and flows of information. The focus of both research and practice has so far been the use of RFID in order to support the classical logistics processes along the supply chain from suppliers to producers, retailers and customers. Flows of material which run in the opposite direction of the classical supply chain have in recent years increasingly been the subject of logistics research and practice. Collecting and processing goods and material outside of the classical processes of source, make, deliver are gaining importance due to changing socio-economic and legal conditions. These changes pose new challenges to logistics which are addressed by a relatively new area of logistics research denoted as reverse logistics. So far, IS research has only addressed isolated cases and aspects of the use of RFID in reverse logistics. In order to promote this emerging research area we provide a framework, which organizes the field in definable layers and interconnections. Based on this framework, we propose a roadmap for future research. The paper is organized as follows. In Section 2 we briefly present the concept of reverse logistics and review existing research on RFID in reverse logistics. In Section 3 we introduce our framework, based on which we propose a roadmap for future research in Section 4. The paper ends with the conclusion in Section 5. 1 Georg-August-Universität Göttingen, Institut für Wirtschaftsinformatik, Professur für Anwendungssysteme und EBusiness; Platz der Göttinger Sieben 5, D-37073 Göttingen 781 2. RFID in reverse logistics – state of the art 2.1. Concept of reverse logistics A consensus regarding the definition of the relatively new concept of reverse logistics has not yet been reached in the scientific literature. The first proposals for a definition are from the early 90s and are limited to aspects like waste management and recycling [5; 8]. Nowadays, the term reverse logistics is mostly conceived in a more general sense, as is the case in the following definition, which was developed by the European Working Group on Reverse Logistics: “The process of planning, implementing and controlling flows of raw materials, in process inventory, and finished goods, from a manufacturing, distribution or use point, to a point of recovery or point of proper disposal” [5]. This definition encompasses flows of material originating from the end customer as well as those having its source further up the supply chain. 2.2. Literature review One of the characteristic attributes, which distinguishes reverse logistics flows from those in forward logistics, is the increased uncertainty [4; 36]. This uncertainty pertains to time, amount and source of future flows, as well as identity and condition of the logistical objects which form the flow. The potential use of RFID in order to remedy the uncertainty in reverse logistics flows is mentioned by many authors [3; 11; 29; 38]. However, there is no profound analysis of potential applications of RFID in the reverse logistics literature. Previous research in the area of Ubiquitous Computing has addressed the use of RFID in some areas of reverse logistics: Parlikad et al. (2003) analysed requirements for object-related information in the context of reuse and recycling of end-of-life products [31]. Kulkarni et al. (2005) discuss the same topic in more detail. In their article, the authors present two case studies dealing with electronics product recovery and point out the benefits of object-related information provided by RFID-based information systems [25]. Dörsche et al. (2005) [7] and Khan et al. (2006) [20] propose a system for the support of product recovery decisions of vehicle components based on embedded sensorequipped RFID tags. Kulkarni et al. (2007) [26] and Parlikad et al. (2007) [32] present quantitative models analyzing the value of RFID in remanufacturing. Another subject of research has been the use of RFID in managing the collection of product returns. Koh et al. (2003) have illustrated how RFID-enabled unique identification can support the collection of returns emanating from the customer (push-returns) [21]. These benefits have been corroborated in some practical applications, e.g. in speeding up return processes of printers at Hewlett-Packard Brazil [14]. The use of RFID systems in order to limit the negative impacts of product recalls (pull-returns) has been the subject of various publications dealing with models and methods for enhanced product tracing using RFID [e.g. 1; 6; 12; 19]. Karaer and Lee (2007) analyze benefits of RFID-based inventory information in handling returns at a distribution centre [18]. Benefits of RFID systems to support the management of returnable containers are relatively well documented in the relevant literature. The RFID-enabled increased visibility of containers such as bins, kegs and boxes has shown to decrease losses due to shrinkage and undocumented damages in sectors ranging from automotive to beverages industry and postal services [13; 30]. Potential negative impacts of Ubiquitous Computing in general and widespread use of RFID in particular have been the subject of research in recent years. In one of the earlier works, Hilty et al. (2003) address environmental risks connected with the vision of Ubiquitous Computing [17]. Koehler and Som (2005) analyze effects of this vision on sustainable development, pointing out – among other effects such as health-related aspects and social implications – the environmental impacts of integrating devices into everyday objects [22]. They identify increased resource consumption as well as the entry of electronics waste into other waste streams as the main threats. 782 Recently, the focus has shifted from Ubiquitous Computing in general towards RFID in particular. Kräuchi et al. (2005) assess the threats of widespread item-level tagging to waste management processes. For several scenarios concerning the diffusion of RFID, they analyze the quantities of different materials contained in transponders and try to identify potential consequences for waste management processes in Switzerland [23]. Based on this analysis, Wäger et al. (2005) call for a number of precautionary measures in order to reduce negative environmental impacts [37]. Gliesche and Helmigh (2007) conducted a more detailed analysis of the negative effects on processes in the recycling of plastic, paper, glass and aluminum [15]. Although all these works address some important aspects of RFID in reverse logistics, they are still piecemeal and do not cover the research area as a whole. We therefore present a structuring framework in order to promote this emerging field for research. 3. Framework Our framework consists of five layers, which we have identified as important sub-areas when assessing the role of RFID in reverse logistics. An overview of the framework is given in Figure 1, followed by a more detailed description of its layers. Figure 1: Research framework for RFID in reverse logistics 783 3.1. Influencing factors and drivers The top layer of the framework describes the factors which cause the increase in importance of reverse logistics in recent years. These drivers pose new demands for reverse logistics processes, which in turn give rise to new requirements on additional object-related information. In the relevant literature, these driving forces are usually divided into legal, economic and social factors [5; 10; 29]. The first main area, in which legislation acts as a driving force on the importance of reverse logistics, is waste management and recycling. The growing social consciousness of ecological matters is, especially in Europe, reflected in recent legislation. Several laws have been passed promoting reuse and recycling of end-of-life products as well as intensified use of returnable packaging [27]. Table 1 shows an overview of the most important EU legislation on waste management: Table 1: EU legislature on waste management Directive Scope Contents 75/442/EC Waste management in general Umbrella Framework specifying general goals of waste management: avoidance of generation, promotion of recovery 94/62/EC Packaging waste Specific goals for reuse and recycling of packaging 2000/53/EC End-of-life vehicles Producer responsibility for recycling; quotas for recycling and reuse of vehicles and components 2002/96/EC Waste electrical and electronic equipment Producer responsibility for recycling; quotas for recycling and reuse of WEEE The second area of legislation posing new challenges for reverse logistics is traceability and recall management. In recent years, several recalls due to safety concerns of food and other safety critical consumer goods have created numerous scandals and shattered consumer trust. Legislation responded with new laws on recall management tightening accountability and requirements on traceability for all supply chain partners. Two prominent examples are the TREAD (Transportation Recall Enhancement, Accountability and Documentation) Act which targets carmakers in the USA and the EU regulation 178/2002 which concerns the food industry [35]. Changing economic conditions also add to the continuous increase in importance of reverse logistics [5; 33]. Average usage periods of goods are decreasing. Therefore products which are disposed of by the end customer often still contain considerable value, which may be recovered profitably. An example is the remanufacturing of mobile phones which is done successfully since the mid-1990s [16]. Prices for almost all categories of raw material are constantly increasing since 2000 due mostly to increased demand induced by the economic growth of newly industrialised and emerging countries. For this reason, the use of secondary raw materials obtained from waste of industry and private households is increasingly economically advantageous [2]. Another economic driver is seen in booming e-commerce. With e-tailers traditionally suffering from a relatively high ratio of returned products, this results in increased effort in handling returns. The growing social environmental consciousness not only influences legal conditions of business, it is a driving factor of reverse logistics in its own right. As more and more consumers and investors include ecological considerations in their decisions, they are targeted by so-called green marketing, in which companies try to communicate ecological corporate and product images [9]. 3.2. Material flows Material flows as the central matter of reverse logistics practice and research is the second layer of our framework. Based on the definition in Section 2.1., the following categories of reverse logistics flows can be distinguished [5; 10] 784 - End-of-use returns: This category encompasses goods that are disposed of when their time of use has expired. Commercial returns: These flows are unused products returned in order to undo a preceding business transaction. The bulk of this category consists of returns from consumers to retailers, however these flows can occur between any two parties in a supply chain. Warranty returns: Defective or damaged products that are either returned by the recipient or recalled by the vendor fall into this category. Packaging: This category encompasses nonreturnable and returnable packaging, e.g. boxes, pallets, barrels, product packaging etc. Production scrap and by-products: We do not consider this fifth category in our framework as it is of relatively low relevance within our scope. Apart from basic logistics processes as transport, storage and cross-loading, reverse flows consist of the following specific processes: The collection of logistical objects constitutes the start of reverse material logistics flows. Two kinds of collection processes need to be distinguished. Pull collections, which are triggered by the receiving party (e.g. producer recalling defective products) and push collections, which are prompted by the source of the flow (e.g. customer after concluding usage of a product). As reverse flows are – in comparison to forward flows – relatively heterogeneous [35], some kind of sorting is often required. Sorting splits heterogeneous material flows in separate fractions for further processing. Similarly, disassembly processes may be needed in order to separate components for separate processing. At the end of the reverse logistics process chain, objects are processed and subjected to a variety of recovery and disposal alternatives. According to the relevant EU legislature, these alternatives form a hierarchy with priority given to reuse, and disposal in landfill as the least desirable option. The role of RFID in these processes is twofold: Firstly, RFID tags as part of these material flows are themselves objects, which pass through the reverse logistics process chain towards recovery or disposal. Secondly, the tags may provide object-related information and thus act as instruments for these processes. 3.3. Requirements on information flows The influencing factors depicted in the top layer pose challenges for reverse logistics processes, some of which entail new requirements for object-related information. Reverse logistics processes have – in comparison to forward logistics – specific requirements for object identification and information, because these processes are relatively poorly controlled and monitored [35]: In forward logistics, object identities are seldom completely unknown at process transitions, as they are often announced by preceding information flows. As forward logistics systems are usually well monitored, the object state is relatively stable. By contrast, reverse logistics processes are far less planned and so far hardly controlled by information systems. Furthermore, reverse logistics objects are far more heterogeneous. Formerly homogenous objects are subject to generation of variants once they leave the controlled systems of forward logistics, which calls for a finer granularity of object-related information. These characteristic requirements on object identification and information are summarized in Table 2. Table 2: Identification and information requirements in forward and reverse logistics Characteristic Forward logistics Reverse logistics Identification purpose Confirm relatively certain identity Establish completely unknown identity Object configuration Static bill of materials, documented at class-level Dynamic bill of materials, to be documented at item-level Object state Rather known and static due to Rather unknown, sensor-equipped RFID tags document 785 controlled processes, sensor-equipped RFID tags serve quality checks unknown effects in usage life Sufficient tagging level for product identification Product packaging Packaging, product (and components) Prevalence of barcode Very high Rather low, as barcodes labels are often no longer usable (end-of-life products) The general requirements described above have to be refined when considering specific reverse flows: Object identification as the basis of linking flows of material and information can be done either at class-level or on item-level. In some cases, reverse logistics processes do not require itemlevel identification. For the sorting of end-of-life products or packaging, which are recovered as secondary material or disposed of, class-level information is usually sufficient. So far, these sorting processes are not based on identification, as barcode labels are no longer usable. In the absence of readable data carriers, sorting processes either rely on manual inspection or on technologies which automatically detect relatively broad physical characteristics such as size, weight and magnetism of objects. Other reverse logistics processes can however benefit from item-level data: In addition to specific collection processes (e.g. targeted recalls), sorting and recovery of high-value objects may benefit from item-level information regarding the state of the object. These processes rely on object-related data like bill of materials. However, the usefulness of object-related data based on the state of the object at the time of its assembly can be quite limited at the time of its recovery. Meaningful and reliable data regarding the current state of the object has to be gathered dynamically during its lifecycle and needs to be documented and accessed at item-level [25, 31]. 3.4. Opportunities and threats of RFID tagging Both potential positive and negative impacts on reverse logistics processes can be expected from item-level RFID tagging. In order to meet the demands on object-related information discussed on Section 3.3, RFID systems have been proposed for various scenarios: Collection processes may benefit from automatic identification, from collections of commercial returns and recalls [21], to enabling deposit systems [35] and enhanced compliance with laws regarding extended producer responsibility [24]. Sorting processes are among the most costly processes in reverse logistics (e.g. sorting of packaging waste in Germany accounts for approx. 40% of the total disposal cost [34]) and may be considerably enhanced, if they are based on object identity instead of broad detectable characteristics [35]. Finally, RFID-enabled documentation of an objects’ individual history may provide valuable information during end-of-life decision making and recovery processes [26; 31; 32]. The use of RFID systems in order to fulfil the specific information requirements is advantageous because of two characteristics of the technology: Firstly, RFID-enabled unique identification is especially beneficial in reverse logistics processes, due to the increased heterogeneity of pertaining objects. Secondly, it is the persistency of RFID tags compared to barcode labels which may enable – and not just, as is the case in forward logistics, enhance – widespread automatic identification in reverse logistics systems. Threats on reverse logistics processes may arise from tags as electronic components entering waste streams. Assuming that all units of packaging waste in Germany were tagged with light smart labels weighing only 0.1 g, this would lead to 20000 t of electronics waste annually entering the processes of packaging waste management [35]. End-of-life electronics equipment is usually processed separately, as it contains hazardous and valuable materials which have to be treated separately [37]. With the spread of item-level RFID a separate collection of transponder and object 786 will in most cases no longer be feasible, which on the one hand hinders a proper disposal of the tags as electronics equipment and on the other hand makes recovery of the objects they are attached to difficult. Tags in specific sorting and recovery processes may interfere with existing technologies (e.g. smelting processes in glass recovery) and secondly contaminate (and thus depreciate) recovered secondary material [15; 23]. The potential opportunities and threats for reverse logistics which may arise from RFID tagging are summarized in Table 3: Table 3: Potential impacts of RFID tagging on reverse logistics processes Process Opportunities Threats Collection - Enabling registration and documentation of collections e.g. for Extended producer responsibility Deposit systems Tracing data enables targeted recalls, verification of warranty claims No separate collection of tags as electronics components Reverse flows heterogeneous Æ increased need for sorting Waste flows: Sorting based on identity instead of broad physical characteristics Æ potential for better separation of waste fractions - Increased value of recovered material - Efficient sorting out of hazardous materials Tags as contaminants of material fractions difficult to separate Sorting - Recovery Item-level product history can improve recovery decisions and processes Tags as contaminants may reduce value of recovered material 3.5. Technological progress and diffusion of RFID Only in few cases, RFID systems will be implemented solely for the purpose of supporting reverse logistics processes. In most cases, RFID will first and foremost be implemented for the support of forward logistics processes – with possible secondary benefits and challenges in reverse logistics. Therefore the role of RFID in reverse logistics will considerably depend on the diffusion of RFID in forward logistics. Thus the barriers of item-level RFID in forward logistics processes are of importance when analyzing its role in reverse logistics. This diffusion depends in large parts on technological progress which may help overcome existing technical barriers. Tag prices are usually seen as an important challenge for widespread item-level RFID, with progress in the area of polymer electronics as a possible long-term solution. Substituting several (semi-)metals in transponders with polymer semiconductors may (by enabling low-cost printing production) dramatically lower the costs for simple, short-range transponders and therefore increase diffusion of RFID at item-level. Apart from its impact on diffusion, technological progress is an important aspect of research on reverse logistics in its own right, as the use of different materials may pose different challenges on recovery processes and the value of recovered materials. 4. Roadmap: Issues for future research The five layers presented in the framework are delineable sub-areas of research on the role of RFID in reverse logistics which are useful for structuring the field. However, in order to comprehensively explore the area, research questions spanning these layers are necessary. We categorize these issues according to scope into economic, ecological and technical issues. 787 4.1 Economic issues The use of RFID promises significant potential to close the gap between forward and reverse logistics information flows. However, except for successful applications in closed loop logistics of returnable containers, there is hardly practical evidence for these potential benefits. Future research should provide methods and models in order to quantify benefits enabled by RFID systems spanning forward and reverse logistics. This should also include aspects of the distribution of costs and benefits of RFID systems in logistics. In the context of consumer goods it is often assumed that large retailers are using their market power to force the introduction of RFID at the expense of manufacturers who have to bear the costs of tagging although it is the retailers who benefit most from it. Incorporating potentials regarding the support of extended producer responsibility may give new impetus to this debate. Additional problems arise from aspects concerning the diffusion of RFID technology in reverse logistics application scenarios. On the one hand, RFID systems can in most cases not be implemented at once, as untagged products will remain in use for years. Reverse logistics processes therefore cannot be changed to operate on tagged objects exclusively, as untagged objects will have to be handled for years to come. On the other hand, unlocking benefits of item-level RFID adds further complexity as more parties (e.g. maintenance, repair and disposal companies), become actively involved in the use of the system and may need to be offered incentives, in order to, for example, participate in documenting object history. 4.2 Ecological issues Research on the overall ecological impacts of item-level RFID is still in its infancy. The articles mentioned in Section 2.2 either focus on negative (usually in worst case scenarios) or positive impacts of RFID (in isolated application scenarios); profound research assessing the ecobalance of item-level RFID is lacking. Research should provide life cycle analysis of different tagging scenarios, incorporating potential ecological opportunities and threats. This may help policymakers to assess its impact before the reality of item-level RFID catches up with the relevant legislation (see Section 3.1.). New legislation may for instance be needed in order to prevent negative impacts of widespread item-level tagging or in order to make use of the possibilities of RFID which could make legal instruments such as obligatory deposit systems or extended producer responsibility feasible. 4.3 Technical issues Integrating the different technical requirements on RFID systems in forward and reverse logistics is a critical issue. Privacy concerns and customer acceptance are in both forward and reverse logistics a major challenge for item-level tagging of consumer products [28]. In forward logistics these concerns can be met with deactivating tags after purchase by default, e.g. by using the killcommand which is implemented in the most important tag standard EPC class 1 Gen 2. This measure is both effective and feasible; however deactivating tags permanently prevents all uses in reverse logistics beyond the point of sale. The development of effective low-cost security measures which increase customer acceptance and allow for the use of RFID throughout the supply loop remains an important subject for future research. This is just one example where technical requirements on RFID differ significantly for forward and reverse logistics. Analysing and reconciling these different requirements regarding tag and reader architecture as well as data management aspects needs to be the subject of future research. In an integrated view on positive and negative impacts of RFID in reverse logistics, the separation of tag and object is an important aspect, which should be considered in the development of methods of binding tag and object. In order to maximize potential benefits (both economic and ecological) 788 and minimize negative impacts, we deduce the question of the optimum decoupling point of tag and object as an essential issue. An exemplary decision problem is shown in Figure 2: Figure 2: Exemplary decision problem of optimum decoupling point 5. Conclusion Reverse logistics is constantly gaining in importance due to changing legal and socio-economic conditions. The expected diffusion of RFID towards the item-level entails both opportunities and challenges for reverse logistics processes, which constitute an important field for future research. Only isolated aspects of this complex research area have so far been addressed, focusing either on negative impacts of item-level tagging or on potential RFID applications in specific areas of reverse logistics. In order to promote a comprehensive approach, which covers the wide area of RFID in reverse logistics and incorporates both positive and negative impacts, we developed a framework structuring the field. We then deduced issues, which future research should address. If the specific challenges can be overcome and positive practical experiences of the use of RFID in the management of closed loop container systems can be transferred to other areas of reverse logistics, RFID systems promise to reduce the inherent object-related uncertainties and thus contribute significantly to the closing of the supply loop. 6. References [1] AGRAWAL, R., CHEUNG, A., KAILING, K. AND SCHONAUER, S. Towards Traceability across Sovereign, Distributed RFID Databases, Proceedings of the 10th International Database Engineering and Applications Symposium, Deli 2006, pp. 174-184. [2] BARDT, H. Die gesamtwirtschaftliche Bedeutung von Sekundärrohstoffen, IW-Trends, Vol. 33 (2006), No. 3. [3] BREEN, L. Give me back my empties, or else! A preliminary analysis of customer compliance in reverse logistics practices (UK), Management Research News, Vol. 29 (2006), No. 9, pp. 532-551 [4] CHOINARD, M., D’AMOURS, S. AND AIT-KADI, D. Integration of reverse logistics activities within a supply chain information system, Computers in Industry, Vol. 56 (2005), No. 1, pp. 105-124. [5] DE BRITO, M. AND DEKKER, R., A Framework for Reverse Logistics, in Dekker, R., Fleischmann, M., Inderfurth, K., Van Wassenhove, L. N. (Eds.): Reverse Logistics, Springer, Berlin Heidelberg 2004, pp. 3-27. [6] DE, P., BASU, K. AND DAS, S. K., An RFID based technique for handling object distribution and recalls in pervasive transaction environments, Proceedings of the 2004 IEEE Conference on Mobile Ad-hoc and Sensor Systems, Fort Lauderdale 2004, pp. 349-358. [7] DÖRSCH, C., FIKOURAS, I., BURKERT, R. AND MÜLLER, D. H., Eco-conscious Design Based on Single Component Polymers for Sustainable Supply Management in Automotive Production, Proceedings of the International Conference on Engineering Design, ICED 2005, Melbourne. [8] DOWLATSHAHI, S., Developing a Theory of Reverse Logistics, Interfaces, Vol. 30 (2000), No. 3, pp. 143-155. [9] D'SOUZA, C., TAGHIAN, M. AND KHOSLA, R., Examination of environmental beliefs and its impact on the influence of price, quality and demographic characteristics with respect to green purchase intention, Journal of targeting measurement and analysis for marketing, Vol. 15 (2007), No. 2, pp. 69-78. [10] FLEISCHMANN, M., Quantitative models for reverse logistics, Springer, Berlin Heidelberg 2001. [11] FLEISCHMANN, M., VAN NUNEN, J., GRÄVE, B. AND GAPP, R., Reverse Logistics – Capturing Value in the Extended Supply Chain, in An, C. and Fromm, H. (Eds): Supply Chain Management on Demand. Springer, Berlin Heidelberg New York 2005, pp. 167-186. 789 [12] FOLINAS, D., MANIKAS, I. AND MANOS, B., Traceability data management for food chains, British Food Journal, Vol. 108 (2006), No. 8, pp. 622-633. [13] FOSTER, P., SINDHU, A. AND BLUNDELL, D., A Case Study to Track High Value Stillages using RFID for an Automobile OEM and its Supply Chain in the Manufacturing Industry, Proceedings of the 2006 IEEE Conference on Industrial Informatics, Singapore 2006, pp. 56-60. [14] GAMBON, J., Best RFID Implementation: Keeping Tabs on Printers, http://www.oatsystems.com/media/Best_RFID_Implem_article2.pdf, retrieved 2008-07-14. [15] GLIESCHE, M., AND HELMIGH, M., Auswirkung eines RFID-Masseneinsatzes auf Entsorgungs- und Logistiksysteme, Dortmund 2007. [16] GUIDE, V. D. R., NEERAJ, K., NEWMAN, C. AND VAN WASSENHOVE, L. N., Cellular telephone reuse: the ReCellular Inc. case, in: Flapper, S. D. P., Van Nunen, J. and Van Wassenhove, L. (eds.): Managing closed-loop supply chains, Springer, Berlin Heidelberg New York 2005, pp. 151-156. [17] HILTY, L., BEHRENDT, S., BINSWANGER, M., BRUININK, A., ERDMANN, L., FRÖHLICH, J., KÖHLER, A., KUSTER, N., SOM, C., AND WÜRTENBERGER, F., Das Vorsorgeprinzip in der Informationsgesellschaft: Auswirkungen des Pervasive Computing auf Gesundheit und Umwelt, Bern 2003. [18] KARAER, Ö. AND LEE, H. L., Managing the Reverse Channel with RFID-Enabled Negative Demand Information, Production and Operations Management, Vol. 16 (2007), No. 5, pp. 625-645. [19] KELEPOURIS, T., PRAMATARI, K. AND DOUKIDIS, G., RFID-enabled traceability in the food supply chain, Industrial Management & Data Systems, Vol. 107 (2007), No. 2, pp. 183-200. [20] KHAN, O., SCOTTI, A., LEVERANO, A., BONINO, F., RUGGIERO, G. AND DÖRSCH, C., RFID in Automotive: a Closed-Loop Approach, 12th International Conference on Concurrent Enterprising, Milano, 2006. [21] KOH, R., SCHUSTER, E. W. AND LAM, N., Prediction, Detection, and Proof: An Integrated Auto-ID Solution to Retail Theft, Cambridge 2003. [22] KOEHLER, A., AND SOM, C., Effects of Pervasive Computing on Sustainable Development, IEEE Technology and Society Magazine, Vol. 24 (2005), No. 1, pp. 15-23. [23] KRÄUCHI, P., WÄGER, P. A., EUGSTER, M., GROSSMANN, G., AND HILTY, L., End-of-Life Impacts of Pervasive Computing – Are RFID tags a threat to waste management processes?, IEEE Technology and Society Magazine, Vol. 24 (2005), No. 1, pp. 45-53. [24] KUHNHENN, K. AND URBAN, A. I., ELEKTROG-Produktverantwortung - Individuelle Produktverantwortung für Elektroaltgeräte – Durch RFID zum Ziel?, Müll und Abfall, Vol. 38 (2006), No. 12, pp. 638-644. [25] KULKARNI, A. G., PARLIKAD, A. K., MCFARLANE, D. AND HARRISON, M., Networked RFID Systems in Product Recovery Management, Proceedings of the 2005 IEEE International Symposium on Electronics and the Environment, New Orleans 2005, pp. 66-71. [26] KULKARNI, A. G., RALPH, D., AND MCFARLANE, D., Value of RFID in remanufacturing, International Journal of Services Operations and Informatics, Vol. 22 (2007), No. 3, pp. 225-252. [27] KUMAR, F. AND FULLENKAMP, J., Analysis of European Union environmental directives and producer responsibility requirements, International Journal of Services and Standards, Vol. 1 (2005), No. 3, pp. 379-398. [28] LANGHEINRICH, M.: RFID and Privacy, in: Petkovic, M., Jonker, W. (eds.): Security, Privacy, and Trust in Modern Data Management, Berlin Heidelberg New York 2007, pp. 433-450. [29] MEADE, L., SARKIS, J. AND PRESLEY, A., The theory and practice of Reverse Logistics, J. Logistics Systems and Management, Vol. 3 (2007), No. 1, pp. 56-84. [30] PARK, J. AND LEE, B., RFID Application Model and Performance for Postal Logistics, Lecture notes in computer science, Vol. 4537, (2007), pp. 479-484. [31] PARLIKAD, A. K., MCFARLANE, D., FLEISCH, E. AND GROSS, S., The Role of Product Identity in End-ofLife Decision Making, Auto-ID Centre White Paper, Cambridge 2003. [32] PARLIKAD, A. K., MCFARLANE, D., RFID-based product information in end-of-life decision making, Control Engineering Practice Vol. 15 (2007), pp. 1348-1363. [33] STEVEN, M., Networks in Reverse Logistics, in Dyckhoff, H., Lackes, R. and Reese, J. (eds.): Supply Chain Management and Reverse Logistics, Springer, Berlin Heidelberg 2004, pp. 163-180. [34] STEVEN, M. AND LAARMANN, A., Lerneffekte in der Entsorgungslogistik, ZfB Zeitschrift für Betriebswirtschaft, Special Issue: Reverse Logistics 1, 2005, pp. 95-114. [35] THOROE, L. AND SCHUMANN, M., Objektinformationsbedarfe und RFID-Nutzenpotenziale in Reverse Logistics, in: Breitner, M.; Breunig, M.; Fleisch, E.; Pousttchi, K.; Turowski, K. (eds.): Proceedings zur 3. Konferenz Mobile und Ubiquitäre Informationssysteme, Bonn 2008. [36] TIBBEN-LEMBKE, R. S. AND ROGERS, D. S., Differences between forward and reverse logistics in a retail environment, Supply Chain Management: An International Journal, Vol. 7 (2002), No 5, pp. 271-282. [37] WÄGER, P. A., EUGSTER, M., AND HILTY, L., Smart labels in municipal waste – a case fort he Precautionary Principle, Environmental Impact Assessment Review, Vol. 25 (2005), No. 5, pp. 567-586. [38] ZHENG, J., ZHENG, W. AND LIU, P., Research on information integration management of reverse logistics, Proceedings of the 7th international conference on Electronic commerce, ACM Press, New York 2005, pp. 851-855. 790 SICHERHEIT Die Frage nach der Sicherheit und Verlässlichkeit der Business Services ist ein Schlüsselfaktor für ihren möglichen Einsatz. Dabei sind mindestens zwei Aspekte von wesentlicher Bedeutung: Zum einen ist Sicherheit eine notwendige Grundvoraussetzung. Die hohe Komplexität der Systeme und die durch sie getriebenen Veränderungen führen die Gesellschaft in zunehmende Abhängigkeit vom einwandfreien Funktionieren der servicebasierten Systeme und der in ihnen eingesetzten Sicherheitsmechanismen. Zum anderen ist zu erwarten, dass sichere Infrastrukturen Innovationen beschleunigen und neue Geschäftsfelder erst ermöglichen und damit die Basis für neue und bisher nicht bekannte Business Services darstellen. Dieser Track widmet sich beiden Aspekten auf den verschiedenen technologischen Abstraktionsebenen und in allen betroffenen Anwendungsgebieten. Leitungsgremium: Claudia Eckert, Technische Universität Darmstadt Günther Pernul, Universität Regensburg (Federführender) Gerald Quirchmayr, Universität Wien Programmkomitee: Hannes Federrath, Universität Regensburg Rüdiger Grimm, Universität Koblenz-Landau Rolf Oppliger, eSECURITY Technologies Hartmut Pohl, Fachhochschule Bonn-Rhein-Sieg Kai Rannenberg, Johann Wolfgang Goethe-Universität Frankfurt am Main Ingrid Schaumüller-Bichl, Fachhochschule Oberösterreich, Hagenberg Gerhard Weck, INFODAS GmbH Köln COLLABORATIVE PENETRATION TESTING Severin Winkler1, Christian Proschinger2 Kurzfassung Penetrationstests stellen im IT-Sicherheitsmanagement großer Unternehmen einen Fixpunkt bei technischen Audits dar. Die Durchführung eines solchen Audits mit den Mitteln eines realen Angreifers stellt einen besonderen Mehrwert dar, da es eine realistische Einschätzung der aktuellen Sicherheitssituation zulässt. Collaborative Penetration Testing beschreibt die Möglichkeit der effektiveren Durchführung solcher Audits, um mit der Professionalisierung im Cybercrime Bereich Schritt zu halten. Durch Spezialisierung und daraus resultierende Arbeitsteilung wird ein effizienterer Einsatz des vorhandenen Testbudgets erreicht. Vorhandene Vorgehensmodelle können so in ihrer Produktivität gesteigert werden. Unseren Ansatz stellen wir anhand eines Prototyps vor. 1. Einführung Ein kollaborativer Penetrationstest (Collaborative Penetration Test) ist ein von mehreren, in der Regel zeitlich und physisch getrennt arbeitenden Menschen durchgeführter Test. Dadurch ergeben sich einerseits neue Möglichkeiten, andererseits werden Fragen und Probleme zur Arbeitsweise der Gruppe und dem allgemeinen Ablauf aufgeworfen. Es handelt sich dabei um eine Kombination aus den Forschungsgebieten des Penetration Testings[3] sowie der Computer Supported Collaborative Work (CSCW) [1] [18]. Der Vorteil eines kollaborativen Penetrationstests gegenüber einem nicht kollaborativ durchgeführten Audit liegt im Nutzengewinn, erreicht durch Spezialisierung und gezielte Werkzeugnutzung. Ziel des vorliegenden Beitrages ist es, die Voraussetzungen für kollaboratives Penetration Testing aufzuzeigen und ein anhand dieser Anforderungen entwickeltes Tool vorzustellen. Als Penetrationstest wird im Allgemeinen ein Sicherheitstest eines IT Systems bezeichnet, bei dem die Tester Mittel und Methoden nutzen, die auch von realen Angreifern verwendet werden [2]. Im Gegensatz zu einem automatisierten Schwachstellenscan werden gefundene Sicherheitslücken in Absprache mit dem Auftraggeber auch tatsächlich ausgenutzt. Auf diese Weise kann Schritt für Schritt immer tiefer in ein System eingedrungen werden, wodurch falsch-positive Ergebnisse ausgeschlossen bzw. weitere Schwachstellen aufgedeckt werden können. 1 Secure Business Austria, A-1040 Wien, Favoritenstraße 16. 2 Raiffeisen Informatik GmbH, A-1020 Wien, Lilienbrunngasse 7-9. 793 Des Weiteren wird diese Art eines technischen Sicherheitsaudits durch folgende Punkte charakterisiert: • Ort, Zeitpunkt und mögliche Zielsysteme sind mit dem Auftraggeber (z.B. einem Systembetreiber oder Systemeigentümer) abgestimmt. • Der Angriff kann bei Beeinträchtigungen der getesteten Umgebung jederzeit abgebrochen werden. • Ein festgelegtes Budget begrenzt den Zeitrahmen. • Die gefundenen Schwachstellen werden bewertet und in einem Bericht präsentiert. • Eine manuelle Prüfung von automatisiert generierten Scanergebnissen wird durchgeführt. Aufgrund der zahlreichen Angriffsvektoren auf ein System, dem daraus resultierenden Umfang des erforderlichen Wissens und der somit notwendigen Spezialisierung der ausführenden Personen werden Penetrationstests meist im Team durchgeführt [10]. Hier findet manchmal auch der Begriff „Tiger Teams“ Verwendung; bei den Mitgliedern dieser Teams handelt es sich um sogenannte „White-Hats“, d.h. Sicherheitsexperten, die ihr Wissen weder zum eigenen Vorteil noch zum Schaden anderer nutzen. Neben der Festlegung des anvisierten Zielsystems kann auch eine Kategorisierung des Tests vorgenommen werden. Grundsätzlich wird zwischen Black-Box- und White-Box-Ansatz unterschieden. Beim White-Box Ansatz sind dem Auftragnehmer detaillierte Informationen über das System zugänglich. Dies sind zum Beispiel Netzwerkpläne oder der Source Code einer zu testenden Applikation. Hingegen stellt der Black-Box Ansatz die Situation eines Außenstehenden nach [3]. In der Praxis hat sich als Mischform der sogenannte Grey-Box Ansatz sehr bewährt, da die Tester durch einige zusätzliche Informationen den Angriff präziser planen können und den Betrieb des Systems weniger gefährden. Um die Testergebnisse vergleichbar und nachvollziehbar zu machen, wird beim Penetration Testing nach festgelegten Methoden, sogenannten „Vorgehensmodellen“, gearbeitet, die unter dem Punkt „Related Work“ näher beschrieben werden. Sämtliche Modelle durchlaufen folgende Phasen: • • • • Aufklärung Scanning Zugang erlangen Dokumentation Die empirische Analyse mehrerer Penetrationstests ergab, dass es sich entgegen der relativ starr wirkenden Vorgaben tatsächlich um sehr dynamische Workflows handelt. Da jeder Test individuell ist, lassen sich Phasen und Prozesse schwer im Vorhinein planen. Unsere Arbeit behandelt daher folgende Punkte: • Wir untersuchen und beschreiben die Vor- und Nachteile von kollaborativen Penetrationstests. Dabei legen wir besonderes Augenmerk auf die wachsende Professionalität in der „Cyberkriminalität“ und wie Sicherheitsexperten damit Schritt halten können. 794 • Wir analysieren die Anforderungen an ein Tool zur Unterstützung von kollaborativen Penetrationstests. • Wir beschreiben unseren Prototypen, bei dem wir Teilaspekte bereits umgesetzt haben. 2. Problemstellung Die Anzahl der gefundenen Schwachstellen eines Penetrationstests verhält sich in der Regel proportional zum Arbeitsaufwand, d.h. Qualifikation des Personals, Qualität der eingesetzten Tools und verfügbare Zeit. Durch Arbeitsteilung und Spezialisierung können die vorhandenen Ressourcen effektiv genutzt werden. In der Vergangenheit hat sich gezeigt, dass die Angriffe auf Unternehmen an Professionalität gewinnen und sich diesbezüglich ein richtiger Markt entwickelt. Seinen Anfang hat dies bei „Vulnerability Research“ und der Entwicklung von Exploits. Die entdeckten Schwachstellen werden oftmals weiterverkauft bzw. versteigert wie zum Beispiel auf der WabiSabiLabi Plattform3. Eine weitere Sparte hat sich auf die Herstellung von Schadsoftware spezialisiert. Hierzu gehört die Entwicklung von Rootkit-Technologien zum Verstecken von Schadsoftware bzw. um Daten unbemerkt aus einem Unternehmensnetzwerk zu transportieren, so z.B. trojanische Pferde. Diese für kriminelle Zwecke entwickelte Software wird ständig weiterentwickelt. Mittlerweile ist Software-as-a-Service[6] in der Malware-Szene bereits umgesetzt. Auf der nächsten Stufe steht der „Betreiber“, der diese Technologien einsetzt und so an für ihn interessante Daten (etwa Geschäftszahlen) gelangt oder die infizierten Rechner für Botnetze nutzt. Gestohlene Informationen können ebenso wie Ressourcen (siehe Botnetze) gesammelt und weiterverkauft werden [4]. 2.1. Arten der Zusammenarbeit und Aufgabenverteilung Die Komplexität heutiger Systeme und Netzwerke führt zu mannigfaltigen Angriffsvektoren, daher wird der Penetration-Test meist von mehreren Akteuren durchgeführt. Die Verteilung der Aufgabengebiete orientiert sich an folgenden Kriterien: - funktional infrastrukturell prozessbezogen Die funktionale Trennung erfolgt auf Basis der zu testenden Applikationen bzw. Systeme. Das verwendete Betriebssystem, Datenbanksoftware oder die eingesetzte Programmiersprache stellen hier die wesentlichen Parameter dar. Bei Tests, deren Schwerpunkt im Applikationsbereichs liegt, etwa Webapplikationen, ist die verwendete Programmiersprache der wichtigste Aspekt. Die Praxis zeigt, dass sich Security-Analysten, die Penetrationstests durchführen, zumeist auf fachliche Bereiche fokussieren. Die Schwerpunkte liegen hier meist auf Betriebssystem-, Applikations- oder Netzwerkebene. Eine funktionale Trennung bringt den Vorteil mit sich, dass für kritische Systeme hochspezialisierte Experten hinzugezogen werden können. So wäre ein denkbares Szenario: Im Laufe des Tests stellt sich heraus, dass es sich bei einem eingesetzten Mailsystem um Lotus Notes handelt. Ist nun ein Experte für Lotus Notes greifbar, kann dieser die Informationen rascher auswerten und die Penetration zielsicherer durchführen. Dies wiederum bedeutet eine Qualitätssteigerung der Ergebnisse und ein geringeres Ausfallsrisiko während der Durchführung des Tests. 3 WabiSabiLabi Auktionsplattform: https://wslabi.com (Stand Juli 2008) 795 Eine infrastrukturelle Aufteilung erfolgt normalerweise anhand der IP-Adressen. Diese Trennung ermöglicht ein paralleles Arbeiten in jeder Phase des Tests. Besonders bei der Überprüfung von großen Netzwerken, bzw. ganzheitlichen Unternehmenspenetrationstests bedeutet diese Art der Arbeitsteilung einen Effizienzgewinn. Eine zusätzliche Segmentierung kann anhand einer Priorisierung der Kritikalität für das Unternehmen getroffen werden. Hochkrititsche Systeme sollten einerseits detailliert geprüft werden, andererseits muss dies oftmals auch in speziellen Zeitfenstern erfolgen. Die prozessbezogene Betrachtung geht davon aus, dass gewisse Aktivitäten abgeschlossen sein müssen, damit mit weiteren Arbeitsschritten fortgefahren werden kann; ebenso gibt es Verzweigungen oder Entscheidungen, die auf den Ablaufpfad des Tests einwirken. Bei der Umsetzung von Vorgehensmodellen muss daher die Abhängigkeit der einzelnen Module analysiert werden, um dementsprechend die Ressourcen zu verteilen. Die Zuweisung der Tätigkeiten erfolgt für die Software-basierte Umsetzung idealerweise als Rollenkonzept, da sich dies gegenüber der benutzerorientierten Sicht als effizienter erwiesen hat. Als vereinfachtes Beispiel für Abhängigkeiten von Aktivitäten sei der von außen durchgeführte Test eines internen Netzwerksegments genannt. Hierbei muss zuerst ein Scan des IP Bereichs durchgeführt werden, um herauszufinden, hinter welchen Adressen sich tatsächlich Systeme verbergen. In der Folge muss ein Gerät gefunden werden, das zumindest eine Schwachstelle aufweist, die ausgenutzt werden kann. Dieses muss in beiden Netzsegmente verbunden sein. Durch das Ausnützen der Schwachstelle kann logischer Zugriff auf das Gerät erlangt werden. Danach kann erst der interne Netzwerkbereich untersucht werden. 3. Related Work Seit den ersten Penetrationstests durch Tiger Teams wurde kontinuierlich daran gearbeitet, die Reproduzierbarkeit des Vorgehens zu erhöhen und die Ergebnisse vergleichbar zu machen. Ebenso wurde versucht, Angriffsmöglichkeiten abzubilden. Attack Trees [16] stellen hierbei eine der bekanntesten Möglichkeiten dar. Daraus resultierend gibt es die Überlegung Attacken als Petri Netze darzustellen [11]. Bestehende Vorgehensmodelle dienen als Grundstein für unsere Überlegungen, da sie einerseits stets den Rahmenprozess mit den vergleichbaren Kernelementen wiedergeben, andererseits ebenso die verschiedenen Detailausprägungen dokumentieren. Das NIST (National Institute of Standards and Technology) hat im Jahr 2003 „Guideline on Network Security Testing“ verfasst. Bei dieser Methode wird davon ausgegangen, dass die Informationsbeschaffung und der Angriff auf ein System oder Netzwerk iterative Prozesse darstellen, d.h. dass sich das Team während des Tests immer weiter vorarbeitet [13]. ISECOM (Institute for Security and Open Methodology) hat das OSSTMM (Open Source Security Testing Methodology Manual), aktuell in Version 2.2 frei verfügbar, veröffentlicht. Durch die ganzheitliche Betrachtung der IT-Sicherheit und Gliederung in einzelne Teilaspekte wird hier ein Rahmen für die funktionale Trennung vorgegeben [10]. Die OISSG (Open Information Systems Security Group) hat das ISSAF (Information Systems Security Assessment Framework) publiziert. Dieses Vorgehensmodell gliedert sich in 3 Phasen, wobei das tatsächliche Assessment in Phase 2 in detaillierte Arbeitspakete unterteilt wird. Die Dokumentation schließt auch die verwendeten Überprüfungstools mit ein [14]. 796 Das BSI (Bundesamt für Informationstechnik) stellt mit dem „Durchführungskonzept für Penetrationstests“ eine Methode zur Abwicklung von Penetrationstests zur Verfügung. Das BSI misst der Informationsbewertung einen besonderen Stellenwert zu. In dieser Methode wird auch klar zwischen Modulen zur Informationsbeschaffung und jenen zum Eindringen unterschieden [3]. Die Fachgruppe Security der Schweizerischen Informatikgesellschaft (SI) hat im Jahr 1999 „Sicherheitsüberprüfungen von IT-Systemen mit Hilfe von ‚Tiger-Teams‘“ beleuchtet. Ein Tigerteam ist eine Gruppe von White - Hats Es handelt sich zwar um kein explizites Vorgehensmodell, allerdings werden zwei für unsere Arbeit relevante Punkte beleuchtet: die Durchführung im Team sowie die Unterteilung in Arbeitspakete [15]. 4. Lösungsansatz Das Ziel unserer Überlegungen und der Umsetzung durch unser Tool ist, durch Arbeitsteilung und damit einhergehende Spezialisierung eine Effizienzsteigerung und Qualitätsverbesserung zu erreichen. Um die Vorteile eines Collaborative Penetration Tests auch tatsächlich nützen zu können, minimieren wir die Reibungsverluste, die durch erhöhten Kommunikationsaufwand entstehen. Unser Prototyp kann als leichtgewichtiges, auf Penetration Tests spezialisiertes Groupware System beschrieben werden. Leichtgewichtig, da es ohne Installation sowie plattformunabhängig unter Windows, Linux und Unix Betriebssystemen betrieben werden kann. Es ist ausschließlich für Penetrationstests geeignet, da es aus Modulen besteht, welche genau auf diese Tätigkeit abgestimmt sind. 4.1. Vorgehensmodell und Prozess-Sicht Die Verbindung zwischen Vorgehensmodell und Prozesssicht wird anhand eines Beispiels dargestellt. Abbildung 1 stellt einen Teilausschnitt, nämlich die Aufklärungsphase und partiell die Scanningphase eines vereinfachten Penetrationstests dar. Die einzelnen Subprozesse sind hierarchisch nummeriert. Im Subprozess 1.1.3 erfährt das Testteam, dass der Ansprechpartner für ein bestimmtes System das Unternehmen verlassen hat. Dies deutet auf einen möglichen SocialEngineering-Angriff hin. Es sollen so zusätzliche Informationen zur Kompromittierung des Systems erlangt werden. Der Subprozess 1.1.4 namens „Social Engineering“ wird initiiert. Hierfür sollte ein Spezialist für Social Engineering im Team eingesetzt und ihm diese Tätigkeit zugewiesen werden. Dies muss dem Team kommuniziert werden, anschließend sind diesem die Ergebnisse des Subprozesses zur Verfügung zu stellen. Abbildung 1: Beispielhafter Ablauf eines Penetrations-Tests (vgl. Winkler, 2008) 797 Die prozesstechnische Betrachtung von kollaborativen Penetrationstests hat folgende Aspekte aufgezeigt: - Es existieren in der Regel sehr viele, kleine Prozessschritte; statisches Verhalten der Arbeitspakete auf Makroebene; sehr dynamisches Verhalten der Arbeitspakete auf Mikroebene; Kommunikation und Dokumentation sind Schlüsselpunkte. Durch die feine Granularität der Prozessschritte ist es notwendig, diese in Arbeitspaketen zu aggregieren. Erst dadurch wird die zielführende Aufteilung auf die den Test durchführenden Security-Analysten ermöglicht. Betrachtet man die Makroebene eines Penetrationstests, so gliedert sich dieser in Phasen, die je nach gewähltem Vorgehensmodell iterativ sein können. Diese Phasen stellen gebündelte Arbeitspakete dar. Da auch ein kollaborativer Penetrationstest an dieser Methode keine nennenswerten Änderungen verursacht, können diese in klassischen Prozessbeschreibungssprachen dokumentiert werden. Auf Mikroebene erhöht sich bei der Bearbeitung durch mehrere Personen die Dynamik der Prozessaktivitäten wesentlich. Daraus resultieren Modifikationen, oftmals während der Durchführung. Es handelt sich dabei um sogenannte „ad hoc-Workflows“, die aus dem CSCW bekannt sind[1]. Diese weisen keine fixe Struktur auf, sondern können während der Durchführung von den handelnden Personen adaptiert werden [17]. Kommunikation ist bei einem kollaborativen Penetrationstest die wichtigste Komponente der Ressourcenallokation, da eine Detailplanung aufgrund der dynamischen Mikroebene nicht möglich ist. Da die Ressourcen bei diesen Tests durch das zur Verfügung stehenden Personal und den Zeitrahmen begrenzt sind, ist eine effiziente Nutzung zu gewährleisten. Dokumentation ist die Basis für die Ergebnisaufbereitung. Sie muss transparent und vollständig sein. Da bei einem kollaborativen Penetrationstest mehrere Personen verteilt und teilweise parallel agieren, bestehen hier besonderen Herausforderungen[1]. Mit unserem Collaborative Penetration Testing Tool versuchen wir, dieses Problem zu lösen. 4.1.1. Kommunikationsunterstützung Die Umsetzung von Erkenntnissen aus dem CSCW-Bereich ermöglicht es, die Reibungsverluste, die zuvor aufgezeigt wurden, zu kompensieren. Für die Realisierung unseres Konzepts ist sowohl eine synchrone als auch eine asynchrone Kommunikationsschiene notwendig. [7] Mittels schriftlicher (synchroner) Mitteilungen können sämtliche Teammitglieder miteinander kommunizieren. In Kombination mit der notwendigen Dokumentation ergibt sich durch diese gleichzeitige Protokollierung des Informationsaustausches ein Nutzengewinn in Netzwerken verteilt arbeitender Personen[8]. Die während des Tests entstehenden Artefakte müssen auch (asynchron) zwischen den durchführenden Personen ausgetauscht werden können. Die Ergebnisse eines oder mehrerer Arbeitspakete stellen oftmals den Input für einen nächsten Arbeitsschritt dar, der unter Umständen von einer anderen Person ausgeführt wird. So kann etwa ein großflächiger Portscan den Input für gezieltes Fingerprinting darstellen. Bezüglich Datenaustausch entschieden wir uns für den Einsatz von Peer-to-Peer-Technik (P2P). Diese bietet gegenüber einer klassischen Server-Client-Architektur mehrere Vorteile. Sämtliche im Test eingebundenen Hosts sollen äquivalente Partner sein. Durch den Einsatz von P2P erwarten wir 798 uns eine bessere Lastverteilung im Netzwerk. Während eines Tests befinden sich Hosts oftmals nicht im selben Netz, d.h. eine direkte Kommunikation ist nicht möglich. P2P ermöglicht es, andere Hosts als Brücken zu verwenden. 4.1.2. Koordinationsunterstützung Ad hoc-Workflows erlauben die Definition und Adaption von Prozessen vor und während der Durchführung. Daher müssen folgende Funktionen unterstützt werden: - Bearbeitung des Ablaufs vor und während des Tests Hinzufügen, Bearbeitung und Löschen von Arbeitsschritten vor und während des Tests Hinzufügen, Bearbeitung und Löschen von Arbeitspaketen vor und während des Tests Hierfür werden Prozessvorlagen unterstützt, die über die P2P-Kommunikation zwischen den Teilnehmern ausgetauscht bzw. von diesen adaptiert werden können. Prozessvorlagen sind z.B. in XML verfasste Prozessbeschreibungen, die direkt in die Anwendung eingelesen und abgebildet werden können. 4.1.3. Compliance zu Penetration Testing Standards Die Vorlagen, die für den Test erstellt werden, basieren auf den bekannten Vorgehensmodellen für Penetrationstests. Hier muss je nach Auftraggeber bzw. Testszenario das passende Modell ausgewählt werden. 4.1.4. Reporting Das Reporting-Modul bereitet die Ergebnisse des Penetrationstests automatisiert auf. Wir haben uns für die Implementierung von zwei Arten von Bericht entschieden. In einem Management-Bericht werden die Daten aggregiert und aufbereitet. Die Darstellung erfolgt hier mittels Grafiken, um Entscheidungsträgern einen raschen Überblick zu vermitteln. Der Detailreport dient als technischer Report für das Fachpersonal, damit dieses die Schwachstellen im Detail nachvollziehen und entsprechend gegensteuern kann. 4.1.5. Daten- und Kommunikationssicherheit Bei der ausgetauschten Information bzw. den übermittelten Daten handelt es sich meist um streng vertrauliche Informationen. Da oftmals externe Tests stattfinden und die Kommunikation somit z.B. über das Internet abgewickelt wird, ist der Einsatz kryptographischer Methoden unbedingt notwendig. 4.1.6. Usability Das Tool muss intuitiv bedienbar sein, um den Lernaufwand möglichst gering zu halten. Dies erhöht gleichzeitig die Benutzerakzeptanz. 799 4.1.7. Systemeinschränkungen Unser Tool ist keine P2P-Tauschbörse. Es handelt sich um ein temporäres, d.h., während der Überprüfung existierendes Netz, das nur einem eingeschränkten Benutzerkreis, den Testern, zur Verfügung steht. Die Applikation unterstützt nur einen kleinen Teil des Funktionsumfanges einer üblichen Workflow-Engine, außerdem ist kein aufwendiger Workflow-Editor implementiert. Im Vergleich zu einer Groupware-Plattform unterscheidet sich unser Tool durch die ausgedehnte Prozessunterstützung. 5. Design und Implementierung Bei der Implementierung wurde durch ein modulbasiertes Design auf einfache Erweiterbarkeit geachtet. Wir ermöglichen somit auch die Einbindung von Fremdkomponenten, um besser auf sich ändernde Anforderungen eingehen zu können. Um die als Rich-Client-Applikation umgesetzte Lösung plattformunabhängig zu gestalten, wählten wir Python4 als Programmiersprache. Sämtliche Parameter werden in Konfigurationsdateien ausgelagert, um die Wartbarkeit zu erleichtern. 5.1. Modulkonzept Bei Penetrationstests wird oftmals eine beachtliche Anzahl von Tools eingesetzt, daher war es uns ein Anliegen, die Möglichkeit der Integration aufzuzeigen. Die Fremdkomponenten, wie zum Beispiel der Netzwerkscanner Nessus5 oder der Portscann Nmap6, wurden, durch das Einbinden in die Benutzeroberfläche durchgängig in den Workflow integriert. Die Module können dadurch Informationen wie z.B. Scan Ergebnisse oder Parameter austauschen, um den Ablauf des Prozesses zu verbessern. 5.2. Reporting Das Reporting-Modul erzeugt auf Basis der Endberichte der einzelnen Module Berichte für verschiedene Zielgruppen. Das Ausgabeformat der Module ist unterschiedlich. Im Idealfall handelt es sich dabei um XML Dateien, die relativ einfach weiterverarbeitet werden können. Das ReportModul parst die Ergebnisse und speichert diese akkumuliert und mit Metabeschreibungen in einer Datei ab. Aus dieser Metadatei wird je nach Berichtstemplate der spezifische Bericht für die jeweilige Zielgruppe erzeugt. Derzeit sind zwei Berichtsarten implementiert, eine Mangement Summary sowie ein technischer Report. In der Management-Summary werden die aggregierten Daten für eine rasche Übersicht aufbereitet. Abbildung 2 zeigt eine sogenannte Vulnerability-Matrix. Hierbei werden mögliche Falsch-Positive aufgezeigt. Diese Auswertung basiert auf einem Vergleich der Ergebnisse zwischen VulnerabilityScanner und Netzwerkscanner. Wir unterscheiden folgende zwei Fehlerarten: • Typ 1 Fehler: Der Vulnerability-Scanner hat einen Host gefunden, der Netzwerkscanner jedoch nicht • Typ 2 Fehler: Der Netzwerkscanner hat einen Host gefunden, der Vulnerability-Scanner jedoch nicht. 4 Multiplattform Programmiersprache, die objekt-, aspektorientierte und funktionale Programmierung unterstützt. Nessus Vulnerability Scanner: http://www.nessus.org/nessus/ (Stand: Nov. 2008) 6 Nmap Port Scanner: http://nmap.org/ (Stand: Nov. 2008) 5 800 Die Risiken der einzelnen Schwachstellen werden in einer dreistufigen Skala bewertet. Abbildung 2: Management-Summary: Vulnerability Matrix und Schwachstellendiagramm Die obige Abbildung zeigt die Anzahl der gefundenen Schwachstellen in Abhängigkeit des verwendeten Betriebssystems. Dies lässt z.B. Rückschlüsse auf den Reifegrad des Patchmanagements in den einzelnen Bereichen zu. 6. Zusammenfassung und Ausblick In diesem Paper wurde Collaborative Penetration Testing, eine Weiterentwicklung der klassischen Penetrationstests nach Vorgehensmodellen, vorgestellt. Durch Arbeitsteilung und Spezialisierung wird die Effektivität und Effizienz erhöht, da die Ressourcen eines Penetrationstests durch das vorgegebenes Budget und die zur Verfügung stehende Arbeitszeit beschränkt sind. Dies stellt eine Möglichkeit dar, die wachsende Komplexität der zu testenden Infrastrukturen und der zunehmenden Professionalisierung im Cybercrime Bereich [5] [12] zu bewältigen. Hierfür analysierten wir die grundlegende Problemstellung der Durchführung eines Penetrationstests aus prozesstechnischer Sicht. Durch die von uns angestrebte Arbeitsteilung ergibt sich Potential zur Minimierung kommunikationstechnischer Reibungsverluste. Mit unserem Prototyp stellen wir die praktische Umsetzung der Erkenntnisse dieses Bereichs im Kontext unserer Idee unter Beweis. Der Hauptvorteil ist ein qualitativ verbessertes Testergebnis. Zur einfacheren und effizienteren Modellierung von Workflows ist der Einsatz der Business Process Execution Language (BPEL) 7 anzudenken. Dies würde die Definition der Vorgehensmodelle mittels einer standardisierten Beschreibungssprache ermöglichen. Durch die Erstellung von Process Templates für mehrere Standards wäre es möglich, den Produktivitätsgewinn in Feldstudien empirisch zu belegen. Ebenso erwarten wir uns Rückschlüsse auf die anzustrebende Granularität im Prozessdesign, die wiederum relevante Aspekte für das zukünftige Design von Vorgehensmodelle für Penetrationstests liefern. 7 BPEL 2.0 Spezifikation: http://docs.oasis-open.org/wsbpel/2.0/OS/wsbpel-v2.0-OS.html (Stand Juli 2008) 801 Weiters wird auch angedacht, die Art der Zusammenarbeit genauer zu analysieren[9], um die Unterstützung der Kommunikation weiter zu verbessern. 7. Literaturverzeichnis [1] AVRAM, G., Of Deadlocks and Peopleware – Collaborative Work Practices in Global Software Development, International Conference on Global Software Engineering 2007 [2] BISHOP, M., FRINCKE, D., About Penetration Testing, IEEE Security & Privacy (Nov/Dec 07), 2007 [3] BSI, Durchführungskonzept für Penetrationstests, Bonn, 2003 [4] BSI, Lagebericht zur IT Sicherheit, http://www.bsi.de/literat/lagebericht/lagebericht2007.pdf (Stand Juli 2008), 2007 [5] DN1NJ4, RBN „Rizing“, http://www.shadowserver.org/wiki/uploads/Information/RBN_Rizing.pdf (Stand Juli 08), Shadowserver Foundation, 2008 [6] GRESCHLER, D., MANGAN T., Networking lessons in delivering “Software as a Service” Part 1, International Journal of Network Management Volume 12 Issue 5, 2002 [7] GROSS, T., KOCH, M., Computer-Supported Cooperative Work – Interaktive Medien zur Unterstützung von Teams und Communities, Oldenbourg Verlag, 2007 [8] HAYTHORNTHWAITE, C., Collaborative Work Networks among Distributed Learners, Proceedings of the 32nd Hawaii International Conference on System Sciences, 1999 [9]HORROCKS; S., RAHMATI N., The Development and Use of A Framework for Categorising Acts of Collaborative Work, Proceedings of the 32nd Hawaii International Conference on System Sciences, 1999 [10] HERZOG, P., Open-Source Security Testing Methodology Manual 2.2, ISECOM, http://www.isecom.info/mirror/osstmm.en.2.2.pdf (Stand Juli 2008), 2006 [11] MCDERMOTT, J.P., Attack Net Penetration Testing, Proceedings of the 2000 workshop on new security paradigms, Ballycotton, 2000 [12] MELANI, Lage in der Schweiz und international – Halbjahresbericht 2008/I , 2008 [13] NIST, Guideline on Network Security Testing, Washington, 2003 [14] OISSG, Information Systems Security Assessment Framework, 2004 [15] SCHWEIZER INFORMATIKGESELLSCHAFT, Sicherheitsprüfungen von IT-Systemen mit Hilfe von TigerTeams, 1999 [16] SCHNEIER, B., Attack Trees, Dr. Dobb’s Journal, 1999 [17] VAN DER AALST; W.; VOORHOEVE, M., Ad-Hoc Workflows: Problems and Solutions, Proceedings of the 8th International Workshop on Database and Expert Systems Applications, 1997 [18] WINKLER, S., Collaborative Penetration Testing, Universitätsbibliothek Universität Wien, Wien, 2008 802 AUTOMATING PERIODIC ROLE-CHECKS A TOOL-BASED APPROACH Ludwig Fuchs, Christian Müller1 Abstract The use of roles in Identity Management has proven to be a solution for reorganising and securing the access structures of organisations. One critical challenge companies face after they implemented roles is the maintenance of the role system itself. This includes sophisticated duties like periodically verifying the valid roles. We argue that due to the high complexity, periodic rolechecks need to be automated. However, as a result of lacking theoretical foundation, no approaches to leverage the level automation have been published so far. In this work we develop a catalogue of use cases that affect the role definitions within an organisation. We propose checkROLE, a tool for automated role-checking on basis of the defined use case catalogue. 1. Motivation In today’s business environment companies provide access to resources to a greater number of users, and more types of users, than ever before. Major IT security problems arise because of employees gaining unauthorised access to resources as a result of manually handling user accounts ([4], [12]). This situation results in the so called identity chaos. National and international regulations like Basel II [1], the Sarbanes-Oxley Act [19], and the EU Directive 95/46 [5] force businesses to audit the actions within their systems. In-house Identity Management (IdM) is a means to solve the aforementioned identity chaos. It deals with the storage, administration, and usage of digital identities during their lifecycle [8]. Role-based IdM in particular is seen as a means to get compliant in general and to easily manage identities and their access to resources ([6], [10]). However, the central challenge after the implementation of roles is the management and maintenance of the role system itself in order to assure its timeliness. This includes the operative administration of the user-role assignments as well as strategic tasks including, e.g., the administration of role-permission assignments. Several developments within an organisation might affect the role definitions and require the role catalogue to be adapted. With thousands of users and millions of authorisations in big companies this task can’t efficiently be carried out manually. Besides the lacking theoretical foundation, no approaches to leverage the level of automation during the process of role-checking have been published so far. In this work we develop a catalogue of use cases that affect the role catalogue within an organisation. In order to show the applicability and advantages of our approach we furthermore propose checkROLE, a tool for the automatic 1 Universität Regensburg, D- 93053 Regensburg, Universitätsstr.31 803 detection of the defined use cases. Using checkROLE organisations can automatically identify changes in their role definitions and keep their role catalogue up-to-date. This paper is structured as follows. After an introduction to Role System Management and periodic role-checks in the related work section, we introduce a catalogue of use cases as the theoretical foundation for automating role-checks in section 3. After a detailed description we analyse selected use cases showing their influence on role definitions. In section 4 we then consecutively propose checkROLE. Section 5 gives conclusions and points out future work. 2. Related Work 2.1. Role System Management Operative and strategic management of roles and the role system in general are essential tasks to keep the implemented role definitions usable. In order to avoid misunderstandings we define the terms used in the following: Role System Management is the umbrella term for operative Role Management and strategic Role Management (Role Maintenance). Operative Role Management includes routine administration duties like user-role-assignment or role-permission-assignment according to the given administration model. Various authors investigated this area proposing several role administration publications like [2], [14], [15], [16], [17], [18], and [21] as well as role system lifecycles ([9], [11], [20]). However, operative Role Management can only be carried out effectively on basis of correct role definitions. Besides the maintenance of the underlying role concept and -model, the most important Role Maintenance duty is the up-to-date keeping of the role catalogue on basis of strategic Role Management processes. In contrast to its operative counterpart, this task heavily depends on organisational and operational structures (OOS) within a company. With dozens of business processes, thousands of users and millions of authorisations in big organisations, strategic Role Management is a seemingly difficult task. Only a few authors theoretically touched this issue on the brink ([11], [20]) while hardly any of them consider automation of Role Maintenance processes. The goal is to face Role Maintenance challenges by analysing existing role- and permission structures in order to provide suggestions for necessary changes in the role definitions, role-permission-, and user-role assignments. This way inconsistent permission assignments endangering compliance with security principles can be cleansed. 2.2. Periodic Role-Checks The importance of periodic role-checks as central part of the Role Maintenance duties has recently been pointed out by [9]. The goal of periodic role-checks is to evaluate the elements of a role system at a certain point of time in order to identify changes within a company that affect the role definitions. Values of role model elements of the last valid state are compared with their actual values in the productive systems. Periodic role-checks have to rely on existing user and access information as well as role definitions stored in the Identity Management Infrastructure or other user repositories. Together with organisational structures and the basic employee information coming from various directories this is a reliable and permanently available source for adequate user information. After the input information has been gathered the comparison of the output OP(t) of the productive user management environment at time t against the last valid role catalogue state OR(t-1) on basis of predefined use cases indicates events that affect the role definitions (see Figure 1). A consecutive impact analysis provides further assistance for resolving the discrepancies. Modifications in the organisational structure and user population are highlighted, for example when employees move to another department or a large number of new employees are hired. On basis of 804 this assistance a decision for resolving the open issues has to be made manually in an analytical way together with business- and IT representatives. In general, one can say that this duty is an iterative process, reducing inconsistencies all along the overall role-check process loop. As seen in Figure 1, periodic role-checks need to be carried out on basis of a well-defined use case catalogue. To the best of our knowledge no such basis has been proposed yet and no insight about underlying use cases as well as practical implementation issues is given in literature. In the following we close this gap by developing a use case catalogue that can be used as theoretical basis for role-checks. . Figure 1: Role-checking on basis of a given use case catalogue 3. Automatic Role-Checking 3.1. Input Elements Before designing a comprehensive use case catalogue we identified the various elements within organisations affecting role-checks and the defined role catalogue using busiROLE [7] as underlying role model. BusiROLE supports the usage of various types of roles, namely Basic Roles, Organisational Roles, and Functional Roles and is applicable in complex role environments. Basic Roles bundle common access rights, Organisational Roles represent employees' positions, and Functional Roles correspond to the task bundles of employees. Basic Roles can be regarded as special Organisational Roles. Our research was carried out on basis of practical experience with various partners from industry on the one hand and scientific publications in the business administration- and role-based user management area ([3], [11], [13], and [20]) on the other hand. The initial analysis revealed a number of components influencing the valid set of roles (see tables 1-6): Employees, Organisational Hierarchies, Positions, Task Bundles, and Permission (Bundles). Employees e.g. could leave the company or be assigned to a different hierarchical element. A hierarchical element is defined as a unit in the organisational structure of an enterprise, for example a business unit, a department, or a unit within a department. In other cases employees might be promoted and assigned to a new Position and new Task Bundles. Examples for change of Organisational Hierarchies include mergers or major restructuring efforts within a business area. Additionally, Permission Bundles of users might change over time. New IT systems might be implemented and the respective rights assigned to the employees while old system might no longer be used. Various constraints, e.g. security policies restricting the user-role- and user-permissionassignments can also affect Role Maintenance. However those constraints are usually not stored in a way that they could automatically be integrated into the role-checking process. Hence we focus on the previously introduced elements because information about those elements is likely to be available in an appropriate format. A definition of every element is given in the following to found the basis of standardised use case catalogue description in section 3.2. 805 Tables 1-6: Definition of input elements for role-checks Employees EMPS EMPa∈ EMPS A set of all employees A human being working for a certain enterprise Organisational Hierarchies OH OHtypea OHEtypea OHEa∈ OHEtypea A set of all Organisational Hierarchies within an enterprise with OH = {OHtypea, OHtypeb, …, OHtypen} One specific organisational hierarchy type within an enterprise, e.g. the line organisation A set of all hierarchical elements within OHtypea An element of a certain organisational hierarchy type OHypea Positions POSITIONS POSa∈ POSITIONS Task Bundles TB TBa∈ TB The set of Positions within OH A Position within an OHEa ∈ OHEtypea Set of all Task Bundles A bundle of tasks serving to fulfil a certain business goal Permission Bundles PB PBa∈ PB Set of all Permission Bundles A specific Permission Bundle serving to fulfil a certain business goal Organisational and Functional Roles ORG_Roles FUN_Roles ORG_Rolea ∈ ORG_Roles FUN_Rolea ∈ FUN_Roles Set of Organisational Roles Set of Functional Roles An Organisational Role defined to represent one Position A Functional Role defined to represent one Task Bundle 3.2. Use Case Catalogue Definition After the theoretical definition of input elements for role-checks we derived a comprehensive set of input element-specific use cases that influence the existing role definitions (see Figure 2). The elements are classified according to their respective layer of origin: Permissions and Permission Bundles are representing the existing access rights and hence are directory-specific while the other elements are related to operational and organisational structures within a company (OOS-specific). For each element various operations are possible, representing one single use case. Regarding Organisational Hierarchies, e.g., “new”, “delete”, “split”, and “merge” are possible operations. Hierarchical elements can be created or deleted as a result of restructuring efforts within a company. The splitting and merging operations can be seen as a combination of the previously mentioned ones. In terms of Positions companies might e.g. define new or delete old ones. Splitting an existing Position into two separate units can again be modelled as definition of two new Positions, re-assigning the old Task Bundles appropriately, and the consecutive deletion of the old Position. The same holds for the “merge” or “relocate” operation. Organisations might carry out new Task Bundles, delete old ones, or relocate existing Task Bundles to a new Position. The “split” and “merge” operations can again be seen as a special combination of the basic operations. Taking a user-centric view one can easily recognise the various changes an Employee can go through when working for a company. He can either change his Position or the assigned Task Bundles, or be 806 relocated to other hierarchical elements. Directory-specific use cases, finally, are dealing with Permission (Bundle) changes. Companies might install new resources, abandon old IT systems, or update existing software. The various examples regarding the “merge”, “split”, and “relocate” operations already have shown the interdependencies between single events. In practical settings it is likely that they do not occur isolated but combined. We are thus now going to identify complex use cases consisting of a number of the various events shown in Figure 2. Figure 2: Theoretical use case catalogue 3.3. In-Depth Analysis of Selected Use Cases In order to foster a clear differentiation and standardised usage we designed a three-layer scheme describing every use case in terms of its structure, its impact on the role system, and possible detection mechanisms. An analysis together with user partners from industry has shown the applicability of this schema as a means of easing communication. We are thus using it during the in-depth analysis of selected use cases in the following. 3.3.1. Selected Use Case 1: Employee Changes Hierarchical Element Structure (Figure 3): An employee EMPc is assigned to a new hierarchical element OHEi and Position POSi2 in the organisation. Due to this fact his work pattern changes and consists of new Task Bundles TBc and TBd. Previously he has been working in hierarchical element OHEj incorporating position POSj1 and related Task Bundles TBe, TBf, and TBg. Impact: To enable correct execution of TBc and TBd according permissions are granted to EMPc. This means that he needs to be assigned to a certain number of roles corresponding to POSi2, TBc, and TBd. However, access right allocation is mostly done manually by IT administrators and only rarely on basis of automated processes that ensure that the permissions requested are granted compliant with current role system policies. Imagine the promotion of an employee that rapidly needs access rights 807 for his new daily work and thus requests them calling several IT administrators. This usually results in a direct assignment of requested rights, probably on basis of the privileges of EMPb. Taking a closer look at necessary de-provisioning tasks unused Organisational- and Functional Roles corresponding to the old Position POSj1 and Task Bundles TBe, TBf, and TBg have to be revoked. Usually no automatic de-provisioning processes are in place so that this duty is not carried out at all or at most manually. Hence the employee is likely to accumulate a number of excessive rights within the organisations’ IT systems, violating the principle of the least privilege [6]. Figure 3: Employee changing organisational hierarchy element Detection and Actions: The first step in this scenario is to detect all employees EMPi∈ EMPS which have been assigned to a new hierarchical element. This can be done by analysing the according user attributes e.g. in the global user directory. In a second step, Role Maintenance must on the one hand examine if these employees have been assigned to the correct permissions and roles according to their new OHEi assignment. In case of any incorrect assignments this situation has to be resolved together with responsible executives. Role Maintenance has to check if old and thus unused access rights and role memberships have been correctly revoked. Statistical analysis and the integration of policies that e.g. define that a user is not allowed to be member of more than one Position in a certain organisation hierarchy type OHtypea can be facilitated to address this problem. 3.3.2. Selected Use Case 2: New Hierarchical Element is Created Structure (Figure 3): A new hierarchical element OHEk is created within a company due to certain organisational changes. It e.g. emerges from splitting an existing OHEl into two separate hierarchical elements. Scientific publications in the business administration area and in the area of organisational behaviour contain additional insight into reasons for change of hierarchical structures within an organisation ([3], [13]). In this scenario the creation of a hierarchical element results in the definition of a new position POSk1 and assignment of Task Bundles TBd, TBe ∈ TB. Employees are newly hired (EMPnew) or move from existing hierarchical elements to the newly created one (EMPa). Impact: After the creation of a new hierarchical element appropriate Organisational- and Functional Roles have to be defined. Role development has to be carried out for the new hierarchical element. However, in real-life settings employees quickly need permissions in order to fulfil their workload. 808 Imagine the newly created department OHEk in a large company. Two employees EMPa and EMPnew assigned to the defined Position POSk1 need to work on a highly critical project as soon as possible. In such a scenario administrators would likely assign permissions manually. This situation is subverting the goals of the existing role system. A further disadvantage is that employees who later on join this specific department, will also not be provided with the correct roles but rather gain their permissions manually. Similar to the previous use case the employees that already worked within the company in a different department still might have a large number of their old permissions due to the lack of correct de-provisioning processes. Figure 4: Creation of new hierarchical element Detection and Actions: To detect this use case and react appropriately any newly created or deleted hierarchical elements have to be detected at first. This can be done by an analysis of available organisational charts, a list of valid hierarchical elements, or user attributes regarding the assignment of employees to hierarchical structures. Consecutively the permissions of employees working in the newly created hierarchical elements have to be examined. Respective Functional- and Organisational Roles must be implemented and the role catalogue extended accordingly if they are not in place yet. After the creation of the various roles within the new hierarchical elements the permissions of employees have to be correctly provisioned. Directly assigned permissions have to be revoked and membership has to be granted using roles. Unused roles might have to be deleted. 4. checkROLE – A Tool for Automated Role Checking As tool support for the automatic detection of the various use cases is mandatory we developed checkROLE an open-source application that is able to detect events affecting the role definitions. On this basis it provides responsible managers assistance in their decision process from Figure 1. Input information from various user repositories at a certain point of time t is copied to the Role Maintenance environment using a LDAP connector or a .csv-file import. Additionally, an image of the currently valid role catalogue is extracted from the Role Management System. CheckROLE provides interfaces to an Active Directory storing the role catalogue, synchronised identity information, as well as access rights. Moreover a connector to other external Role Mining tools gives us the ability to execute non-statistical analysis of user data. 809 4.1. Detecting Use Cases in CheckROLE Figure 5 presents the main interface of checkROLE. Besides the detection scenarios (Role Maintenance) the Import to LDAP tab provides the ability to set up the data basis contained in the underlying repository. To support additional Role Mining tasks, an Export to DB tab was implemented providing export functionality of user and permission data. For real-life applicability we narrowed down the theoretically defined use cases according to their outcome to nine so called detection scenarios that checkROLE is able to identify. These detection scenarios occur in various combinations, dependent on the underlying use cases from section 3: • • • • • • • {EMPa, EMPb, …, EMPn} have directly assigned Permission Bundles PBa ∈ PB {EMPa, EMPb, …, EMPn} have a set of wrong or unused Organisational Roles {ORa, ORb, …, ORn} ∈ ORG_Roles inconsistent assignment of Permission Bundle PBa ∈ PB to FUN_Rolea ∈ FUN_Roles inconsistent assignment of Functional Role FUN_Rolea ∈ FUN_Roles to Organisational Role ORG_Rolea ∈ ORG_Roles detection of new Permission Bundle PBnew ∈ PB detection of changes in Position definitions detection of changes in Organisational Hierarchies Figure 5: CheckROLE interface 4.2. Test Scenario In order to demonstrate the application of checkROLE, we are going to present a short test scenario in a small industrial company with about 10 departments, 45 employees and 15 different business roles granting membership to about 50 different Active Directory groups (permissions). The company has implemented busiROLE as role model. For the role-checks user information and the existing role catalogue have been imported to the Role Maintenance environment using a LDAP connection to the global Active Directory within the company. Applying the Check user moves and the Check users OR functionality of checkROLE generates the output windows shown in Figure . 810 Figure 6: CheckROLE test scenario output The window on the left lists the employees that have changed their hierarchical element(s) and/or Position since the last role-checking loop. Positions of employees are stored in the title attribute within the Active Directory of the company. One can see that three users previously working in the Development department have joined the MigrationTeam. Their title attribute has changed, e.g. from Developer to ProjectLeader in case of employee PetBrau. Security policies prevent users to have more than one Position and Organisational Role at a certain point of time. CheckROLE identified that PetBrau is still connected to his old Organisational Role (OR_Developer) and that his title attribute has a different entry not corresponding to the Organisational Role assigned. Investigating the valid roles in the department MigrationTeam OR_ProjectLeader is suggested as the correct role. This needs to be done on basis of cluster analysis of existing rights within the respective department, closely interwoven with Role Development issues. The output window on the right side of Figure reveals directly assigned permissions. Even though all the permissions imported to the Role Maintenance environment have to be granted on basis of role membership, checkROLE identified several direct user-permission assignments. Employee PetBrau is e.g. on the one hand still able to access the various resources connected to his old Organisational Role. To fulfil the tasks related to his new Position ProjectLeader he was on the other hand assigned to the necessary permissions SW-Remedy-G, Project_Schedule, SW-RaD_Tools-G, and NET_Framework directly. With this output responsible role managers now are able to take adequate measures to resolve the found issues. This short scenario has shown that checkROLE is able to support strategic Role Management and provide information that might not even have been identified at all. 5. Conclusions and Future Work In this paper we have seen that companies require support in ensuring the timeliness of the implemented roles in their IT infrastructure. Several changes within an organisation might affect the role definitions and require the role catalogue to be updated. This requires an automated overview over possible changes to be integrated in a Role Maintenance solution. Up to now, to the best of our knowledge, no assistance is provided by researchers in this area. Consequently we defined a use case catalogue that acts as theoretical basis for role-checks. An in-depth analysis of single use cases has revealed their structure, impact on the role definitions, and possible detection mechanisms. We furthermore presented checkROLE a tool for automatic detection of various use cases. It facilitates statistical analysis and data mining algorithms to compare a valid role catalogue with the present situation within a company in order to identify discrepancies. A short test scenario 811 has shown the applicability of checkROLE within a small company. For future work we are going to add new functionalities for detecting combined use cases and migrate towards a process-oriented role checking workflow. Up to now checkROLE only provides a simple text-based presentation of results. For a seamless integration into future Role Maintenance and Role Development solutions it needs to be extended in order to allow for an automatic correction of detected anomalies. Moreover the text-based visualisation is very limited in terms of readability in more complex test scenarios. We hence are implementing an adequate solution that presents the found results in a more structured way allowing for interaction with the checkROLE users, i.e. the Role Maintenance team. References [1] BANK FOR INTERNATIONAL SETTLEMENTS, BIS: International Convergence of Capital Measurement and Capital Standards: A Revised Framework - Comprehensive Version, http://www.bis.org/publ/bcbs128.pdf, 2006. [2] CRAMPTON, J., LOIZOU, G., Administrative scope: A foundation for role-based administrative models, ACM Transactions on Information and System Security (TISSEC) 6, pp. 201–231, 2003. [3] DAFT, R., Organization Theory and Design. 2nd ed. West, St. Paul, Minn. 1986. [4] DHILLON, G.: Violation of Safeguards by Trusted Personnel and Understanding Related Information Security Concerns. Computers & Security 20 (2), pp. 165-172, 2001. [5] EUROPEAN UNION: Directive 95/46/EC of the European Parliament and of the Council. Official Journal of the European Communities L (28-31), http://ec.europa.eu/justice_home/fsj/privacy/docs/95-46-ce/dir199546_part1_en.pdf, 1995. [6] FERRAIOLO, D. F., KUHN, R. D., CHANDRAMOULI, R., Role-Based Access Control. Artech House, Boston, Mass./London 2007. [7] FUCHS, L., PREIS, A., BusiROLE: A Model for Integrating Business Roles into Identity Management, Proc of the 5th Int. Conference on Trust, Privacy, and Security in Digital Business (TrustBus), Torino, Italy 2008. [8] FUCHS, L., PERNUL, G., Supporting Compliant and Secure User Handling – a Structured Approach for In-house Identity Management, Proc. of the 2nd Int. Conference on Availability, Reliability and Security (ARES '07), pp. 374-384. IEEE Computer Society, Vienna, Austria 2007. [9] FUCHS, L., PERNUL, G., proROLE: A Process-oriented Lifecycle Model for Role Systems, Proc. of the 16th European Conference on Information Systems (ECIS), Galway, Ireland 2008. [10] GALLAHER, M. P., O’CONNOR, A. C., KROPP, B.: The economic impact of role-based access control. Planning report 02-1, National Institute of Standards and Technology, http://www.nist.gov/director/progofc/report02-1.pdf, Gaithersburg, MD 2002. [11] KERN, A., KUHLMANN, M., SCHAAD, A., MOFFETT, J., Observations on the role life-cycle in the context of enterprise security management, Proc. of the 7th ACM Symp. on Access Control Models and Technologies (SACMAT '02), pp. 43-51, ACM, New York 2002. [12] LARSSON, E. A.: A case study: Implementing Novell Identity Management at Drew University. Proc. of the 33rd ACM SIGUCCS conference on User services (SIGUCCS’05), pp. 165-170, ACM, New York 2005. [13] MINTZBERG, H., Structuring of Organizations. Prentice Hall, Englewood Cliffs, N.J. 1979. [14] NYANCHAMA, M., OSBORN, S., The role graph model and conflict of interest, ACM Transactions on Information and System Security (TISSEC) 2, pp. 3–33, 1999. [15] OH, S., SANDHU, R., A model for role administration using organization structure, Proc. of the 7th ACM Symp. on Access Control Models and Technologies (SACMAT '02), pp. 155–162, ACM, New York 2002. [16] OH, S., SANDHU, R., Zhang, X., An effective role administration model using organization structure, ACM Transactions on Information and System Security (TISSEC) 9, pp. 113–137, 2006. [17] SANDHU, R., BHAMIDIPATI, V., MUNAVER, Q., The ARBAC97model for role-based administration of roles, ACM Transactions on Information and System Security (TISSEC) 2, pp. 105–135, 1999. [18] SANDHU, R., MUNAVER, Q., The ARBAC99 Model for Administration of Roles, Proc. of the 15th Annual Computer Security Applications Conference, pp. 229–238, Phoenix, USA 1999. [19] SARBANES, P. S., OXLEY, M.: Sarbanes-Oxley Act of 2002, also known as the “Public Company Accounting Reform and Investor Protection Act of 2002”, http://frwebgate.access.gpo.gov/cgibin/getdoc.cgi?dbname=107_cong_bills&docid=f:h3763enr.tst.pdf, 2002. [20] SCHIMPF, G., Role-Engineering Critical Success Factors for Enterprise Security Administration, Position Paper for the 16th Annual Computer Security Application Conference, New Orleans, USA 2000. [21] ZHANG, Y., JOSHI, J. B., ARBAC07: A Role-based Administration Model for RBAC with Hybrid Hierarchy, Proc. of the IEEE Int. Conference on Information Reuse and Integration, pp. 196–202, Las Vegas, USA 2007. 812 INNOVATIONSMANAGEMENT UND PRODUKTENTWICKLUNG Der Bereich Innovationsmanagement und Produktentwicklung hat vielfältige Schnittstellen und Berührungspunkte zu Software- und IT-Systemen. Zum einen müssen natürlich solche Produkte selbst entwickelt werden, wozu es dedizierte Entwicklungsprozesse gibt. Für diesen Track von zentralerer Bedeutung ist aber die Rolle, die Software- und IT-Systeme für die Innovationsentwicklung generell haben, und wie sie die Effizienz und Effektivität der Entwicklung von Produkten und Services treiben. Neue Möglichkeiten der Kommunikation und Vernetzung, der Simulation und des Prototyping, der Kundenintegration oder Produktionsplanung usw. haben die Potenziale des Managements von Innovation und Produktentwicklung in den letzten Jahren deutlich verändert. Sie schaffen Raum für verbesserte Innovationsprozesse und teilweise völlig neuartige Geschäftsmodelle. Leitungsgremium: Nikolaus Franke, Wirtschaftsuniversität Wien (Federführender) Oliver Günther, Humboldt-Universität zu Berlin Kathrin Möslein, Universität Erlangen-Nürnberg Frank Piller, Rheinisch-Westfälische Technische Hochschule Aachen Programmkomitee: Andrea Back, Universität St. Gallen Francis Bidault, European School of Management and Technology Berlin Lutz Ellermann, Vaillant GmbH Ellen Enkel, Zeppelin University Deutschland Joachim Henkel, TU München Matthias Freund, Bundeskartellamt Deutschland Jürgen Karla, RWTH Aachen Detlef Schoder, Universität zu Köln Gerrit Tamm, SRH Hochschule Berlin Jürgen Wenger, BMW AG FACHLICHES INNOVATIONSMANAGEMENT ALS STRATEGISCHER ERFOLGSFAKTOR IN DER IT-BERATUNG UND SYSTEMINTEGRATION Sean Eikenberg1,2, Stephan Melzer2, Ulrike Lechner1 Kurzfassung Nachhaltig erfolgreiche IT-Beratungs- und Systemintegrations-Unternehmen setzen sich mit den Problemen ihrer Kunden auseinander. Ein offenes und auf Kunden ausgerichtetes Innovationsmanagement findet IT-gestützte Prozessinnovationen für fachliche Kundenprobleme. Wir haben mit unserer Aktionsforschung bei der sd&m AG vier Instrumente für ein solches fachliches Innovationsmanagement entwickelt und erprobt. Mit dieser Arbeit präsentieren wir diese Instrumente, leiten daraus für die weitere Forschung Thesen ab und reflektieren die noch offenen Fragestellungen. 1. Einleitung Aus betriebswirtschaftlicher Sicht ist die Liquidität die unmittelbare Steuerungsgröße der Unternehmensführung. Ihr Wirkungsgrad ist jedoch nur kurzfristiger Natur. Für einen nachhaltigen Unternehmenserfolg sieht Gälweiler [1] die Notwendigkeit weiterer Steuerungsgrößen. Für ihn steuert sich Liquidität über Erfolg, Erfolg wiederum durch bereits vorhandene Erfolgspotenziale und diese letztendlich durch zukünftige Erfolgspotenziale. Gälweiler sieht in die Auseinandersetzung mit den fachlichen Kundenproblemen die Grundlage zukünftiger Erfolgschancen. Bei IT-Beratungs- und Systemintergrations-Unternehmen nehmen wir aktuell zwei Instrumente zur Sicherung zukünftiger Erfolgspotenziale wahr: • Fachliche Kundenprobleme werden über Analogie antizipiert. Eine bei einem Kunden bereits erfolgreiche Lösung wird generalisiert und bei einem anderen Kunden eingesetzt. • Neue IT-Technologien am Markt werden durch ein Innovationsmanagement beobachtet. Sobald die Vermarktbarkeit gegeben ist, werden sie Kunden in Pilotprojekten angeboten. In Märkten mit wenigen Marktteilnehmern besteht beim ersten Instrument die Gefahr eines endlichen und damit beschränkten Vertriebspotenzials. Das zweite Instrument ist rein technologiegetrieben, abstrahiert von den konkreten Kundenproblemen und ist damit durch andere Unternehmen substituierbar. Wir konnten in früheren Forschungsarbeiten [2, 3] feststellen, dass diese Form des Innovationsmanagements nur unzureichend auf die Rolle des Kunden eingeht. So fehlt dem technisch orientierten Innovationsmanager häufig der direkte Zugang zu den Kunden. Beide Instrumen1 2 Universität der Bundeswehr, München, Deutschland sd&m AG, München, Deutschland 815 te für sich genommen sind aus unserer Sicht bei einem IT-Beratungs- und SystemintergrationsUnternehmen nicht ausreichend, um zukünftige Erfolgspotenziale hinreichend abzusichern. Aktuelle Forschungspublikationen [4-6] stützen die These, dass Lösungen zu fachlichen Kundenproblemen im Zuge eines offenen und auf Kunden ausgerichteten Innovationsmanagements gefunden werden können. Mit unserer deskriptiven Forschungsarbeit hinterfragen wir diese These mittels Aktionsforschung im IT-Beratungs- und Systemintegrationshaus sd&m. Dazu stellen wir in Kapitel 2 sd&m sowie den Aufbau unserer Aktionsforschung vor. Den Schwerpunkt bildet Kapitel 3 mit unseren Erkenntnissen zu den Inhalten, Werkzeugen, organisatorischen Themen und Kundenfunktionen eines möglichen fachlichen Innovationsmanagements. Im vierten Kapitel fassen wir unsere Erkenntnisse für nachfolgende Forschungsarbeiten zu Thesen zusammen und reflektieren die noch offenen Fragestellungen. Trotz kritischer Bewertung der Erfolgsfaktorforschung innerhalb der Managementwissenschaften [7, 8] sehen wir für unserer Forschungsarbeit eine hohe Praxisrelevanz. 2. Aktionsforschung 2.1. Das IT-Beratungs- und Systemintegrationshaus sd&m Die sd&m AG gehört zur weltweiten Capgemini-Gruppe und repräsentiert deren Geschäftssparte Technology Services in Deutschland und der Schweiz. Das Leistungsangebot von sd&m umfasst die Entwicklung von Individualsoftware, die Systemintegration und die IT-Beratung. Im Jahr 2007 hat sd&m 198 Mio. € Umsatz erzielt und beschäftigt aktuell über 1.840 Mitarbeiter an 8 Standorten in Deutschland und in der Schweiz sowie einem Nearshore-Center in Wroclaw, Polen. sd&m ist projektzentriert und hat eine hybride Linienorganisation, die für die zwei umsatzstärksten Kundengruppen (Automotive, Banken und Versicherungen) branchenorientiert und für alle weiteren Kunden regional aufgestellt ist. Mit sd&m Research (sR) verfügt sd&m über eine Forschungsabteilung, die unter anderem für das technologiegetriebene Innovationsmanagement verantwortlich ist. Ziel des sR Innovationsmanagements ist die Stärkung von sd&m als Diskussions- und Dienstleistungspartner für neue IT-Technologien [9]. Es greift diese Technologien aktiv auf, gestaltet vertrieblich nutzbare Leistungsbausteine und vermittelt dem sd&m-Team Anwendungswissen. Der im Fokus dieser Arbeit stehende sd&m-Vorstandsbereich Automotive (VB Automotive) gliedert sich in drei Kundenbereiche und d