Allgemein

Querschnittsstudien eignen sich, um die Prävalenz zu bestimmen. Zusätzlich sind sie sehr schnell durchführbar und können mehrere Endpunkte untersuchen. Querschnittsstudien werden mithilfe von Interviews oder Fragebögen durchgeführt. [1]

Ziel

Querschnittsstudien werden zur Bestimmung der Prävalenz und zur Ableitung von Kausalzusammenhängen durchgeführt. Die Prävalenz stellt die Anzahl der Fälle in einer Population zu einem bestimmten Zeitpunkt dar. Die Probanden werden zu einem bestimmten Zeitpunkt beurteilt, um Kausalität zu gewährleisten. [1]

Durchführung

Um eine Querschnittsstudie durchführen zu können, müssen Forschungsfragen formuliert werden. Anschließend wird eine Stichprobenpopulation zur Ausarbeitung der Forschungsfragen ausgewählt und die relevanten Variablen für die Analyse definiert. Zur Datenerhebung wird dann eine Methode zur Kontaktaufnahme mit den Probanden der Stichprobe implementiert (Fragebogen oder Interview). Die gesammelten Daten werden dann analysiert. Abbildung 1 veranschaulicht das Studiendesign von Querschnittsstudien. [1]

Abbildung 1: Studiendesign von Querschnittsstudien, Quelle: Mann (2003)

 

 

 


Kernliteratur

  • [1] Mann, C.J. (2003). Observational research methods. Research design II: cohort, cross sectional, and case-control studies Emergency Medicine Journal 2003;20:54-60.

Allgemeines

Die Korrelationsstudie misst verschiedene Variablen und deren Beziehungen untereinander. Durch statistische Tests können die Beziehungen bezüglich ihrer Stärke (Signifikanz) untersucht werden, die Regression gibt den funktionalen Zusammenhang zwischen Variablen an. [1]

Ziel

Ziel dieser Methode ist es, Vorhersagen auf Grundlage der einen Variable über die andere Variable zu treffen. Dabei ist zu beachten, dass eine Korrelation keine Kausalitätsannahmen zulässt, da die Variablen von einer dritten Variable beeinflusst werden könnten. [1]

Durchführung

Es existieren verschiedene Korrelationskoeffizienten, die je nach Messniveau und einbezogenen Variablen in Einsatz kommen. Die bekanntesten sind:

  1. Bravais/Pearson: Dieser Korrelationskoeffizient wird bei metrisch skalierten Daten verwendet. [2]
  2. Spearmansche: Dieser Korrelationskoeffizient wird bei ordinal skalierten Daten verwendet. [2]

Bei gemischt skalierten Daten bestimmt das niedrigste Messniveau die Wahl des Korrelationskoeffizienten.

 


Kernliteratur

  • [1] Tichy, W., & Padberg, F. (2007). Empirische Methodik in der Softwaretechnik im Allgemeinen und bei der Software-Visualisierung im Besonderen. In Software Engineering 2007–Beiträge zu den Workshops–Fachtagung des GI-Fachbereichs Softwaretechnik. Gesellschaft für Informatik e. V.
  • [2] Artusi, R., Verderio, P., & Marubini, E. (2002). Bravais-Pearson and Spearman correlation coefficients: meaning, test of hypothesis and confidence interval. The International journal of biological markers, 17(2), 148-151.

Allgemeines

Die Deduktion ist allgemein ein Analyseverfahren, das auf der Realitätsabbildung aufbaut. Die Deduktion wird in drei Forschungsmethoden unterteilt: formal-deduktive, konzeptionell-deduktive und argumentativ-deduktive Analyse. [1]

Ziel

Ziel dieser Methode ist es, Schlussfolgerungen zu Problemen oder bestimmten Sachverhalten aus formalen Modellen zu ziehen. [1]

Durchführung

Ein formales Modell wird herangezogen und analysiert, um Schlussfolgerungen für Sachverhalte zu ziehen. [1]

 


Kernliteratur

  • [1] Wilde, T., & Hess, T. (2006). Methodenspektrum der Wirtschaftsinformatik: Überblick und Portfoliobildung (No. 2/2006). Arbeitsbericht, Institut für Wirtschaftsinformatik und Neue Medien, Fakultät für Betriebswirtschaft, Ludwig-Maximilians-Universität.

Allgemein

Die Dokumentenanalyse gehört zu den interpretativen Verfahren. Es handelt sich um einen systematischen Ansatz, um sowohl elektronische als auch nicht elektronische Medien zu qualifizieren [1]. Dabei werden entsprechend der Fragestellung Quellen gesucht und ausgewählt, die alle für die Fragestellung geeigneten Quellen umfassen sollte. Diese Quellen werden dann nochmals auf ihre Aussagekraft hin evaluiert. Danach beginnt sprachliche und inhaltliche Analyse. Die Methode kommt aus den Sozialwissenschaften, wo diese Methode ebenfalls Anwendung findet [vgl. 3]. Sie ist geeignet um Daten zur Unterstützung des adressierten Feldes zu sammeln und damit entsprechende Fragestellungen zu beantworten [2]. Die Dokumentenanalyse findet unter anderem in der Grounded Theory Anwendung [1].

Ziel

Ziel einer solchen Analyse ist es, unter vorher definierten Kriterien Inhalte aus den Quellen herauszufiltern und zusammenzufassen [2]. Die Fragestellung definiert wonach in den Materialien gesucht wird [2, 3].

Durchführung

In einem ersten Durchgang werden die Fundstellen im Material gekennzeichnet, bei denen das gesuchte Thema angesprochen wird [1]. Dann werden die Inhalte analysiert und zusammengefasst. Diese zwei Schritte werden auch also Kodierung bezeichnet. Abschließend werden die Inhalte in Bezug auf die Fragestellung diskutiert [1].

Vorteile der Methode sind [1]:

  • Effiziente Methode
  • Verfügbarkeit
  • Kosten-Nutzen-Verhältnis
  • Mangel an Widersetzlichkeit und Reaktivität
  • Stabilität
  • Genauigkeit
  • Abdeckung

Nachteile der Methode sind [1]:

  • Unzureichender Detaillierungsgrad
  • Niedrige Widerrufbarkeit
  • Einseitige Selektierung

 


Kernliteratur

  • [1] Bowen, G. A. (2009). Document Analysis as a Qualitative Research Method. Qualitative Research Journal9(2), 27.
  • [2] Owen, G. T. (2014). Qualitative Methods in Higher Education Policy Analysis: Using Interviews and Document Analysis. The Qualitative Report19(26), 1.

Weitere Literatur

Allgemeines

Die Deduktion ist allgemein ein Analyseverfahren, das auf der Realitätsabbildung aufbaut. Die Deduktion wird in drei Forschungsmethoden unterteilt: formal-deduktive, konzeptionell-deduktive und argumentativ-deduktive Analyse. [1]

Ziel

Ziel dieser Methode ist es, Schlussfolgerungen zu Problemen oder bestimmten Sachverhalten durch schlüssige Argumentation zu ziehen [1]

Durchführung

Durch logische Argumentation wird ein Sachverhalt analysiert und Schlussfolgerungen daraus gezogen. [1]

 


Kernliteratur

  • [1] Wilde, T., & Hess, T. (2006). Methodenspektrum der Wirtschaftsinformatik: Überblick und Portfoliobildung (No. 2/2006). Arbeitsbericht, Institut für Wirtschaftsinformatik und Neue Medien, Fakultät für Betriebswirtschaft, Ludwig-Maximilians-Universität.

Allgemeines

Die Deduktion ist allgemein ein Analyseverfahren, das auf der Realitätsabbildung aufbaut. Die Deduktion wird in drei Forschungsmethoden unterteilt: formal-deduktive, konzeptionell-deduktive und argumentativ-deduktive Analyse. [1]

Ziel

Ziel dieser Methode ist es, eine Theorie oder ein Modell zu entwickeln, um ein besseres Verständnis über einen Sachverhalt zu bekommen. [1]

Durchführung

Mithilfe verschiedener Theorien wird eine Theorie oder ein Modell im Kontext eines bestimmten Sachverhaltes entwickelt, um neue Erkenntnisse zu generieren. [2]

 


Kernliteratur

  • [1] Wilde, T., & Hess, T. (2006). Methodenspektrum der Wirtschaftsinformatik: Überblick und Portfoliobildung (No. 2/2006). Arbeitsbericht, Institut für Wirtschaftsinformatik und Neue Medien, Fakultät für Betriebswirtschaft, Ludwig-Maximilians-Universität.
  • [2] Palvia, P., Mao, E., Salam, A. F., & Soliman, K. S. (2003). Management information systems research: what's there in a methodology?. Communications of the Association for Information Systems, 11(1), 16.

Unterkategorien

Auf dieser Website werden Cookies verwendet. Wenn Sie der Verwendung von Cookies zustimmen, können Sie die Website besser nutzen.