Lehrstuhl für Wirtschaftsinformatik - Schwerpunkt Informations- und IT-Service-Management
Aktuelle Forschungsprojekte

Aktuelle Forschungsprojekte

Ziel der Forschungsaktivitäten des Lehrstuhls ist es, relevante Fragestellungen aus dem Bereich Informations- und IT-Service-Management in Kooperation mit internationalen Praxis- und Forschungspartnern theoriegeleitet und methodengestützt zu adressieren, um nachhaltige Forschungsergebnisse zu erarbeiten. 

Aktuell werden folgende Forschungsthemen am Lehrstuhl behandelt:

Data Analytics und Privacy

Herausforderungen im Umfeld von Big Data können sowohl rein technischer als auch soziotechnischer Natur sein. Nutzer geben ihre Daten täglich über verschiedene digitale Kommunikationskanäle, Webseiten und anderen webbasierten Anwendungen wie Fitnesstracker und anderen tragbaren Geräten preis, was gerade auf soziotechnischer Ebene Probleme betreffend der Datensicherheit und Privatsphäre von Nutzern hervorruft. Welche Auswirkungen die Datenbereitstellung haben kann, wird dabei oft bewusst als auch unbewusst ausgeblendet. Auf der anderen Seite besitzen diese Daten für Unternehmen einen hohen Stellenwert, der durch die Verknüpfung und weiteren Analyse dieser Daten gesteigert werden und zu Wettbewerbsvorteilen führen kann. Unklar bleibt dabei, ob dem Aspekt der Datensicherheit immer ausreichend Rechnung getragen werden kann.

Im Rahmen dieses Forschungsprojektes sollen dieses Thema erforscht werden. Dabei wird unter Anderem untersucht, welche Motivation Nutzer haben, ihre Daten bereitzustellen und welche Rolle dabei die Faktoren „Bewusstsein“ und „Akzeptanz“ einnehmen. Des Weiteren sollen verschiedene Risiken identifiziert werden, die infolge der Datenbereitstellung  auftreten können und darauf basierend ein Maßnahmenkatalog mit Handlungsempfehlungen zum verantwortungsvollen und bewussten Umgang mit Daten erarbeitet werden.

Ansprechpartner: Dr. Nora Fteimi

Erfolgsfaktoren von Cloud Computing-Geschäftsmodellen

Durch die Einführung des Cloud Computing-Konzepts sind neue Rollen für Unternehmen auf dem IT-Markt entstanden. Zu diesen zählen in erster Linie Anbieter der drei Basisservicearten (Software-, Platform- und Infrastructure-as-a-Service), aber auch weitere wie Aggregatoren, Integratoren oder Marktplätze. Diese veränderte Marktstruktur hat die traditionelle, lineare IT-Wertschöpfungskette aufgebrochen und stattdessen zu einem Entstehen eines netzwerkartigen Business-Ökosystems geführt. Um die Rollen und deren abstrakten Beziehungen dieses Business-Ökosystems abzubilden, haben bereits einige Autoren Modellvorschläge veröffentlicht. Diese unterscheiden sich jedoch deutlich voneinander, was die Erstellung eines überarbeiteten, die bisherigen Modellvorschläge integrierenden und damit umfassenderen, Modells notwendig macht.

Da die verschiedenen Ökosystem-Rollen unterschiedliche Geschäftspotentiale eröffnen, verlangen diese jeweils nach einem adäquaten Geschäftsmodell. Im Ökosystemkontext kann ein Geschäftsmodell als Spezifikation angesehen werden, wie einzelne Rollen konkret durch Unternehmen umgesetzt werden. Bislang existiert zu Cloud Computing-Geschäftsmodellen – obwohl etablierte IT-Unternehmen wie auch Start-Ups im Cloud Computing-Umfeld Schwierigkeiten haben, ihr Geschäftsmodell zu gestalten – ein niedriger Forschungsstand. Forschungsbereichsübergreifend wird ein Geschäftsmodell oftmals dazu verwendet, um ausgehend von den Ausprägungen dessen Komponenten und bestimmter finanzieller Kennzahlen eines Unternehmens, potentielle Einflussfaktoren für den Unternehmenserfolg abzuleiten. Bei Cloud Computing existiert diesbezüglich zwar eine erste, abstrakte Analyse, diese erscheint allerdings aufgrund der Heterogenität der berücksichtigten Marktteilnehmer als wenig aussagekräftig. Dieser Umstand macht die Durchführung einer selektiven Analyse mit ähnlich gearteten Anbietern zwingend erforderlich. Zur Sicherstellung der Vergleichbarkeit der einbezogenen Unternehmen bieten sich hierbei die Ökosystemrollen an. Anstatt dabei auf öffentlich zugängliche Sekundärdaten zurückzugreifen, sollen in einer alternativen Vorgehensweise Erfolgsfaktoren von Geschäftsmodellen direkt innerhalb von explorativen Experteninterviews mit Vertretern mehrerer Cloud-Anbieter erhoben und anschließend evaluiert werden.

Ansprechpartner: Sebastian Floerecke

Information Privacy im Cloud Computing

Cloud-Computing-Speicherdienstleistungen, wie z.B. Dropbox und Google-Drive haben in den letzten Jahren zunehmend Einzug in das private Lebensumfeld erhalten. Der damit verbundene Paradigmenwechsel hinsichtlich der Verfügbarkeit und dem Besitz gespeicherter Daten resultiert in essentiellen datenschutzrelevanten Auswirkungen für die Endnutzer. Im Rahmen eines internationalen Forschungsprojekts wird in Zusammenarbeit mit dem Indian Institut of Technology Madras untersucht, welchen Mehrwert neuartige Darstellungsformen liefern, um Nutzern die Anpassung persönlicher Datenschutzeinstellungen zu ermöglichen und zu erleichtern. In dem gemeinsamen Projekt werden neben verhaltensbezogenen Fragestellungen bezüglich der individuellen Auffassung von Privatheit auch gestaltungsorientierte Aspekte in Hinblick auf die Erstellung von Informationssystemen untersucht.   

Ansprechpartner: Alexander Keller

Interaktive Videos zur Wissensvermittlung

Video-Tutorials sind sowohl im privaten als auch im organisatorischen Umfeld ein weitverbreitetes Medium, um zielgerichtet Wissen in spezifischen Anwendungsdomänen zu vermitteln. Die Nutzung sogenannter Massive Open Online Courses (MOOCs) und Video-Plattformen wie YouTube ergänzt klassische, text- und papierbasierte Wissensvermittlung und ersetzt diese in Teilbereichen. Im Rahmen des Forschungsprojekts wird die Fragestellung untersucht, inwieweit sich interaktives, videobasiertes Lernen von klassischen Ansätzen unterscheidet und welche verhaltensspezifischen Effekte bei der Nutzung zu beobachten sind. Daraus lassen sich relevante Implikationen für den zielgerichteten Einsatz verschiedener Lernmethoden zur Wissensvermittlung und -aneignung ableiten, die sowohl im Hochschulkontext als auch in der betrieblichen Aus- und Weiterbildung Anwendung finden. 

Ansprechpartner: Alexander Keller

Text Analytics im Kontext von Big Data

Täglich entstehen im privaten sowie auch im organisatorischen Umfeld große Mengen an strukturierten und unstrukturierten Daten. Mit der Datenflut gehen neue Probleme und Herausforderungen einher, die es zu bewältigen gilt. So stellt sich beispielsweise die Frage nach Methoden der effizienten und zuverlässigen Datenanalyse und -auswertung, die vor dem Hintergrund unterschiedlicher Datenformate, verschiedener Speicher- und Ausgabemedien an Relevanz gewinnen. Wissenschaftliche Arbeiten, die sich dieser Herausforderung annehmen, haben die Relevanz dieses Themas erkannt und in den vergangenen Jahren neue Ansätze und Methoden entwickelt, wofür sich der Begriff „Text Analytics“, auch „Text Mining“ etabliert hat. Text Analytics erlaubt die, zunehmend auch softwarebasierte Verarbeitung von Textbeständen, sodass neue Textmuster und dadurch neues Wissen generiert werden. Unternehmen können dadurch höhere Gewinnmargen und Wettbewerbsvorteile erzielen. Über Sentiment Analysen kann beispielsweise die Stimmung von Kunden hinsichtlich erworbener Produkte im Rahmen von Kundenbewertungen analysiert und darauf basierend entsprechende optimierende Maßnahmen eingeleitet werden.

Im Rahmen dieses Forschungsprojektes werden bereits bestehende Ansätze zur softwarebasierten Textanalyse systematisch evaluiert und ausgewertet um darauf aufbauend neue optimierte Verfahren auszuarbeiten. Beispielsweise wird der Einsatz von Wörterbüchern zur softwarebasierten Erfassung und Analyse zusammengesetzter Konzepte untersucht und bewertet.

Ansprechpartner: Dr. Nora Fteimi

Verfahren zur Analyse qualitativer Daten

Um Daten im Rahmen qualitativer Forschung inhaltlich zu strukturieren und kontextspezifisch aufzubereiten, bedient man sich sogenannter Codierungstechniken. Da die Interpretation der daraus resultierenden Ergebnisse meist einen stark subjektiven Charakter aufweist, besteht ein Bedarf an innovativen Verfahren, die auf einer standardisierten Vorgehensweise beruhen und objektive Einblicke in die Datenbasis gewähren. In diesem Zusammenhang werden am Lehrstuhl zwei Verfahren entwickelt, die der Analyse codierter, qualitativer Daten dienen. Einer der Ansätze beruht auf einem Verfahren aus dem Information Retrieval und bestimmt die Relevanz einzelner Codes hinsichtlich ihres Auftretens im Untersuchungskorpus. Das zweite Analyseverfahren gruppiert qualitative Informationen hinsichtlich ihrer kontextspezifischen Zugehörigkeit, indem die codierten Daten als Graph abgebildet werden und darauf aufbauend ein Clustering auf Basis von Graphenpartitionierung erfolgt.

Ansprechpartner: Alexander Keller

Qualität von Prozessmodellen

In den letzten Jahren hat sich das Prozessmanagement zu einer immer wichtigeren und bedeutenderen Disziplin, sowohl in der Wissenschaft als auch in der Praxis, entwickelt. Prozessmodelle werden heutzutage unter anderem für die Konfiguration von Informationssystemen, für die Dokumentation, für die Reorganisation von Unternehmen, das Management von Projekten, die Standardisierung, Automatisierung sowie Simulation von Geschäftsprozessen verwendet. Da Geschäftsprozesse Einfluss auf die Produktqualität und Kundenzufriedenheit nehmen, sehen Unternehmen sich stetig gezwungen ihre Prozesse, unter Zuhilfenahme von Prozessmodellen, zu verbessern.

Wissenschaft und Praxis weisen jedoch eine unterschiedliche Herangehensweise bei der Modellierung von Prozessen und der Verwendung von Prozessmodellen auf. Bisher konnte sich kein allgemeingültiges und einheitliches Verständnis hinsichtlich qualitativ hochwertiger Prozessmodelle etablieren. Das Ziel des Forschungsvorhabens besteht daher, ausgehend von einem Mixed Method Forschungsansatz, den Begriff der Prozessmodellqualität näher zu definieren und die Ausprägungen von Prozessmodellqualität sowie die Wechselwirkungen dieser zu untersuchen.  

Ansprechpartner: Aleksandra Dzepina