- Sie befinden sich:
- Fachbücher
- »
- Wirtschaft - Unsere Neuheiten
- »
- Marketing
- »
- Preispolitik im Software-as-a-Service Markt: Deskriptive Analyse und Bewertung
Marketing
» Blick ins Buch
» weitere Bücher zum Thema
» Buch empfehlen
» Buch bewerten Produktart: Buch
Verlag:
Diplomica Verlag
Imprint der Bedey & Thoms Media GmbH
Hermannstal 119 k, D-22119 Hamburg
E-Mail: info@diplomica.de
Erscheinungsdatum: 04.2014
AuflagenNr.: 1
Seiten: 104
Abb.: 49
Sprache: Deutsch
Einband: Paperback
Gibt es eine dominante preispolitische Strategie im Markt für B2B Software-as-a-Service Lösungen? Anstoß und Ausgangspunkt für dieses Buch war der radikale Wandel des Geschäftsmodells von Softwareanbietern. Software wird in der Zukunft nicht mehr gekauft, sie wird gemietet. Dieser Paradigmenwechsel hat weitreichende Implikationen auf die Preispolitik von Softwareanbietern. Vergleicht man die Preismodelle von SaaS-Anbietern, scheinen auf den ersten Blick alle einem ähnlichen Muster zu folgen. Auf dem Markt hat sich eine Reihe an Best-Practices etabliert, die von neuen Anbietern in den meisten Fällen adaptiert werden. Eine genauere Analyse der Preisstrategien ergibt jedoch teilweise erhebliche Unterschiede in der Ausgestaltung der einzelnen Parameter und Dimensionen. Diesem Tatbestand wird in diesem Buch auf den Grund gegangen. Der Erkenntnistand aus der empirischen Forschung zu den Auswirkungen dieses Paradigmenwechsels auf die Preisstrategie von Softwareanbietern in der Praxis ist noch lückenhaft. Dieses Buch leistet einen Beitrag zur Schließung dieser Forschungslücke.
Textprobe: Kapitel 2, Definition und Auswahl der Untersuchungsobjekte: Im Verlauf der empirischen Forschung ist zu klären, über welche Objekte Aussagen gemacht werden sollen. Im Falle einer deskriptiven Untersuchung lässt sich die Menge der Objekte meistens relativ genau abgrenzen. Sollen aber Aussagen - wie in unserem Fall - gemacht werden, die über die tatsächliche Menge der untersuchten Objekte hinausgehen, hängt die Gültigkeit der Aussage von der Definition des Objektbereichs und der Art der Auswahl der Untersuchungsobjekte ab. In Kapitel 2.1 werden zunächst die wissenschaftlichen Grundlagen erläutert, um in Kapitel 2.2 die Untersuchungsobjekte zu definieren und schließlich in Kapitel 2.3 eine Auswahl vorzunehmen. 2.1, Auswahlverfahren in der empirischen Sozialforschung: In der Regel werden empirischen Untersuchungen durchgeführt, um systematisch und nachvollziehbar Aussagen über die Realität treffen zu können. Die Fragestellung, die dabei verwendet wird, bezieht sich häufig auf eine großen Ausschnitt der Realität, bzw. eine große Anzahl an Elementen. Um belastbare Aussagen über eine große Anzahl von Elementen (die Grundgesamtheit) zu bekommen, stehen zwei Strategien zur Verfügung: Man untersucht alle Elemente in Bezug auf die interessierenden Merkmale oder man untersucht nur ein Teil dieser Elemente und greift anschließend auf Regeln zurück, mit deren Hilfe man von der Teilemenge (Stichprobe) auf die Grundgesamtheit schließen kann. 2.1.1, Grundgesamtheit: Zur Durchführung von empirischen Studien muss der Objektbereich definiert werden, für den die Aussagen der Untersuchung gelten soll. Diese Definition einer Menge von Objekten wird als Grundgesamtheit bezeichnet. Eine exakte Definition präzisiert die Theorie und ist unerlässlich für die Durchführung wissenschaftlicher Studien. Die Definition Grundgesamtheit stellt meistens einen Kompromiss zwischen dem Gegenstandsbereich der zu testenden Theorie (bzw. dem Universum der interessierenden Objekte) und den zur Verfügung stehenden Ressourcen dar. Bei der Analyse von Online-Inhalten sieht sich der Forscher in Bezug auf die Definition der Grundgesamtheit mit einigen Herausforderungen konfrontiert: • Flüchtigkeit, Dynamik und Transitorik: Online-Inhalte werden kontinuierlich verändert, neu erstellt oder gelöscht. Die Grundgesamtheit ändert sich also ständig. • Medialität, Multimedialität bzw. Multimodalität: Durch die Kombination verschiedener medialer Zeichenträger, Zeichensystemen und Kommunikationsformen entstehen komplexe multikodierte Inhalte. • Nonlinearität, Hypertextualität: Webseiten sind durch Verlinkung verbunden und können kommunikative Einheiten bilden. Bei der Definition der Auswahleinheiten steht der Forscher vor der Herausforderung ein einzelnes Element also solches eindeutig und einheitlich zu definieren. • Reaktivität, Personalisierung: Online-Inhalte werden auch auf Basis von interaktiven Nutzereingaben generiert und es entstehen personalisierte Angebote. Eine Definition der Grundgesamtheit muss sich in solchen Fällen auf die Realisierungsoption eines individuellen Angebots beziehen. • Digitalisierung, Maschinenlesbarkeit: Online-Inhalte liegen in einer digitalen oder digitalisieren Form vor. • Quantität: Aufgrund der relativ geringen Kosten, die mit der Speicherung von Informationen im Internet verbunden sind, ist die Angebotsmenge immens groß und nimmt stetig zu. Die schiere Menge und die damit einhergehende erschwerte Auffindbarkeit und Erreichbarkeit macht eine Definition der Grundgesamtheit nahezu unmöglich. Die methodologischen Grundlagen und Gütekriterien unterscheiden sich bei der Durchführung von Online-Inhaltsanalysen jedoch nicht grundsätzlich von anderen Untersuchungsgegenständen der empirischen Sozialforschung. Der Untersuchungsgegenstand weist allerdings zahlreiche spezifische Merkmale auf, welche die Auswahlverfahren vor Herausforderungen stellt. Hierzu zählen insbesondere das Problem der unbekannten Grundgesamtheit und das Problem der Abgrenzung der Stichprobe. 2.1.2, Stichprobe: Werden alle Elemente einer Grundgesamtheit erhoben, so spricht man von einer ‘Vollerhebung’, wird nur eine Teilmenge erhoben, von einer ‘Teilerhebung’. Man spricht von einer ‘Stichprobe’, wenn die Elemente der Teilerhebung nach festgelegten Regeln bestimmt werden. Grundsätzlich können zwei Arten von Stichproben unterschieden werden: Stichproben durch Zufallsauswahl und Stichproben durch willkürliche und bewusste Auswahl. Zufallsstichproben sind Stichproben, deren Auswahlregeln es erlauben, vor der Durchführung einer Stichprobe für jedes Element der Grundgesamtheit die Wahrscheinlichkeit zu berechnen, dass dieses Element Teil der Stichprobe wird. Außerdem muss die Auswahlwahrscheinlichkeit für jedes Element der Grundgesamtheit größer Null sein. Es können folgende Zufallsauswahlverfahren unterschieden werden: • Einfache Zufallsstichprobe: Aus einer Grundgesamtheit, in der jedes Element dieselbe Chance zur Ziehung besitzt, werden n Elemente gezogen. • Geschichtete Zufallsstichprobe: Vor der Auswahl werden die Elemente der Grundgesamtheit in Gruppen eingeteilt und schließlich durch eine einfach Zufallsstichprobe gezogen. • Klumpenstichprobe: Die Auswahlregeln werden nicht auf die Elemente der Grundgesamtheit, sondern auf zusammengefasste Elemente angewendet. • Mehrstufige Auswahlverfahren: Elemente werden durch Zufallsauswahl in mehreren Stufen ausgewählt. Stichproben durch willkürliche Auswahl sind Stichproben, bei denen die Entscheidung über die Aufnahme eines Elementes der Grundgesamtheit in die Stichprobe unkontrolliert und im Ermessen des Auswählenden getroffen wird. Es können folgende willkürliche Auswahlverfahren unterschieden werden: • willkürliche Auswahlen: Die Auswahl erfolgt unkontrolliert und willkürlich. • bewusste Auswahlen: Sie erfolgen nach einem Auswahlplan, es sind jedoch keine inferenzstatistischen Techniken anwendbar. • Auswahl extremer Fälle: Elemente, die in Bezug auf ein bestimmtes Merkmal eine ‘extreme’ Ausprägung besitzen, werden gewählt. • Auswahl typischer Fälle: Es werden Elemente gewählt, die als besonders ‘charakteristisch für die Grundgesamtheit angesehen werden. • Auswahl nach dem Konzentrationsprinzip: Es werden Elemente gewählt, bei denen ein interessierendes Merkmal so stark ausgeprägt ist, dass diese Elemente nahezu die gesamte Verteilung der Grundgesamtheit bestimmen. • Schneeballverfahren: Ausgehend von einem Element wird auf die Relevanz für die Stichprobe auf andere Elemente geschlossen. • Quota-Verfahren: Bestimmte Elemente in der Stichprobe müssen in exakt derselben Häufigkeit wie in der Grundgesamtheit vorkommen. Nur für Zufallsstichproben sind die Fehler, die beim Schluss von der Stichprobe auf die Grundgesamtheit entstehen, durch die Anwendung von inferenzstatistischer Techniken berechenbar. Der Umkehrschluss deutet darauf hin, dass willkürliche Auswahlen für wissenschaftliche Zwecke fast immer wertlos sind, da die Relevanz der Stichprobe nicht berechnet werden kann. Die Bezeichnung einer Stichprobe als ‘repräsentativ’ ist somit nur im Sinne des Prinzips der Zufallsauswahl zu verstehen. Um die Repräsentativität einer Stichprobe für die Grundgesamtheit nachweisen zu können, muss nachgewiesen werden können, ob bestimmte Merkmale in der Grundgesamtheit mit derselben Häufigkeit vorkommen wie in der Grundgesamtheit. Dies setzt die Bekanntheit der Grundgesamtheit voraus. Rössler und Wirth weisen darauf hin, dass bei der Analyse von Online-Inhalten Zufallsstichproben in den seltensten Fällten angewendet werden können, da die Grundgesamtheit zumeist nicht bekannt oder erreichbar ist.
Johannes Ellenberg, MBA, wurde 1984 in Tübingen geboren. Sein Erststudium, E-Service an der Hochschule der Medien in Stuttgart, schloss der Autor 2009 mit dem akademischen Grad Bachelor of Science ab. Breits während des Studiums sammelte der Autor Praxiserfahrungen in der Internetbranche. Seinen akademischen Werdegang setzte der Autor an der Steinbeis Hochschule für Management and Innovation in Berlin, Mailand und New York fort und beendete diesen 2013 mit dem Master of Business Administration in der Vertiefungsrichtung Marketing. Seine Tätigkeit als selbständiger Strategieberater in der Internetbranche und seine fundierten Kenntnisse der Marketinglehre, veranlassten den Autor sich der Thematik des vorliegenden Buches zu widmen.
weitere Bücher zum Thema
Mit allen Sinnen: Duftmarketing. Einfluss auf Erleben und Kaufen
Unveränderte Neuausgabe