Essays on user adoption of connected and autonomous vehicles
Köster, Nils; Salge, Torsten-Oliver (Thesis advisor); Piller, Frank Thomas (Thesis advisor)
Aachen (2021)
Doktorarbeit
Dissertation, Rheinisch-Westfälische Technische Hochschule Aachen, 2021
Kurzfassung
Autos werden zunehmend zu "rollenden Computern", wie vernetzte und autonome Fahrzeuge zeigen. Vernetzte Autos sind Teil des Internets der Dinge (IoT) und erfassen und verarbeiten über ihre eingebauten Sensoren und Kommunikationsmodule Daten in noch nie dagewesener Menge und Spezifität. Connected-Car-Dienste wie Parkplatzreservierungen in Echtzeit oder sprachunterstützte Concierge-Dienste werden für Autokäufer immer wichtiger. Autonome Fahrzeuge (AV) sind eine besonders weitreichende Anwendung der intelligenten Automatisierung: Mit Hilfe von künstlicher Intelligenz (KI) werden Autos in der Lage sein, ihre Fahrgäste ohne menschliches Zutun zu befördern. Dies soll die verfügbare Zeit und den Komfort der Fahrgäste erhöhen. Mit diesen Vorteilen geht jedoch ein Kontrollverlust über die persönlichen Daten des Einzelnen und über die Verantwortung für die eigene Sicherheit einher. Tragische Unfälle mit autonomen Testfahrzeugen und Hackerangriffe auf vernetzte Autos haben die potenziellen Risiken verdeutlicht. Dies wirft die Frage auf, wie Nutzer potenzielle Risiken bewerten und berücksichtigen, wenn sie sich für die Nutzung autonomer Fahrzeuge oder von Connected Cars entscheiden. Vor diesem Hintergrund untersucht meine Dissertation, wie die Forschung zu den Entscheidungen von Individuen, eine Technologie angesichts ihrer Risiken zu nutzen, nicht nur in der Breite, sondern auch in der Tiefe durch diese grenzüberschreitenden Kontexte der intelligenten Automatisierung und des IoT erweitert werden kann. Ich habe zwei umfangreiche empirische Forschungsprojekte durchgeführt: In meinem ersten Projekt mit dem Titel "Connected Cars, Privacy Risk, and Individual Contingencies" habe ich untersucht, wie Individuen Privatsphäre-Risiken im Zusammenhang mit vernetzten Autos als einer besonders weit verbreiteten IoT-Anwendung wahrnehmen und abwägen. Ich erkläre, wie Individuen zu einer Einschätzung der Privatsphäre-Risiken kommen, basierend auf den spezifischen negativen Konsequenzen, die sie für vernetzte Autos in Dimensionen wie physische Sicherheit, psychologisches Wohlbefinden, sozialer Status oder Handlungsfreiheit erwarten. Ich habe auch herausgefunden, dass Individuen, die eher geneigt sind, sich an Regeln zu halten, im stark regulierten Kontext von vernetzten Autos geringere Risiken für ihre Privatsphäre wahrnehmen. Das Ausmaß, in dem diese Wahrnehmungen von Risiken für die Privatsphäre letztendlich die Entscheidung des Individuums über die Weitergabe von Daten bestimmen, wird durch persönliche Kontingenzfaktoren beeinflusst. Ich gehe auf die Kritik ein, dass in der bisherigen Forschung das wahrgenommene Risiko für die Privatsphäre oft als ein eher vages "Bauchgefühl" konzeptualisiert wurde, dass die Weitergabe von Daten zu "Verlusten" führen könnte. In meiner Forschung zeige ich, dass die Beleuchtung der genauen negativen Folgen der Beeinträchtigung der Privatsphäre im gegebenen IS-Kontext die Kompatibilität mit anderen Risikoforschungsbereichen bei der Entscheidungsfindung von Verbrauchern erhöht, die Verschmelzung von virtuellem und physischem Raum im IoT besser widerspiegelt und Praktikern bei der Verbesserung der Servicegestaltung hilft. Mein zweites Projekt trägt den Titel "Autonome Fahrzeuge, anfängliches Vertrauen und strukturelle Sicherheit" (Artikel II und III). Um beurteilen zu können, ob sie AVs vertrauen können, müssen Individuen Signale erhalten, dass AVs eine angemessene Funktionalität, Zuverlässigkeit und Transparenz aufweisen, d. h., dass diese Fahrzeuge plausible und vorhersehbare Entscheidungen treffen. Ich habe untersucht, wie fünf strukturelle Sicherheitsmechanismen, nämlich technische, Anbieter-, Rechts-, Zertifizierungs- und soziale Schutzmechanismen, gestaltet werden können, und durch Conjoint-Experimente mit repräsentativen Stichproben in Deutschland, China und den USA quantifiziert, wie wirksam sie als Signale für anfängliches Vertrauen sind. So habe ich beispielsweise herausgefunden, dass Rechtsschutz und Zertifizierungen vertrauensbildender sein können als die Signale des Technologieanbieters selbst. Einerseits wurden Unterschiede zwischen den untersuchten Ländern festgestellt, die auf eine Abhängigkeit der Signalwirkung in Bezug auf den kulturellen und sozialen Kontext hinweisen. Andererseits wurden auch innerhalb der untersuchten Länder verschiedene Nutzergruppen identifiziert. Diese Gruppen unterscheiden sich hinsichtlich der bevorzugten strukturellen Sicherungsmechanismen und deuten darauf hin, dass Signalisierung als teilweise subjektiver Prozess auf individuelle Merkmale trifft. Diese Ergebnisse haben auch Auswirkungen auf die Praxis und die Politik, da sie Empfehlungen für die Gestaltung von strukturellen Sicherungsmechanismen und die Priorisierung von Nutzergruppen aufzeigen.
Identifikationsnummern
- RWTH PUBLICATIONS: RWTH-2021-07759