Datenschutzkonforme KI-Tools für Effizienzsteigerung im UX-Research – ein Überblick #webinar
KI-Tools verändern die Arbeit von UX-Researcher:innen grundlegend – aber wie setzt man sie sinnvoll ein, ohne gegen Datenschutzrichtlinien zu verstoßen? In unserem Webinar […]

KI-Tools verändern die Arbeit von UX-Researcher:innen grundlegend – aber wie setzt man sie sinnvoll ein, ohne gegen Datenschutzrichtlinien zu verstoßen? In unserem Webinar hat sich Tara Bosenick (uintent) genau mit diesem Thema beschäftigt. Tara ist eine der führenden Stimmen im Bereich UX-, CX- und Employee Experience und nutzt KI-Tools schon lange in ihrer praktischen Arbeit als UX-Researcher:in. Sie gab im Webinar einen Überblick über datenschutzkonforme KI-Tools für den gesamten UX-Research-Prozess.
KI im UX-Research: Ein mächtiges, aber heikles Werkzeug
Tara machte gleich zu Beginn klar: KI kann UX-Research massiv effizienter machen – aber nicht jede KI ist geeignet. Besonders dann, wenn personenbezogene oder vertrauliche Daten ins Spiel kommen, braucht es sichere und vor allem DSGVO-konforme Lösungen.
„Wir brauchen als UX-Researcher Tools, die sicher genutzt werden können. Und da trennt sich schnell die Spreu vom Weizen.“
KI-Tools entlang des UX-Research-Prozesses
Desk Research: Wissen schneller finden
Bei der Recherche zur Vorbereitung von UX-Research-Maßnahmen können KI-gestützte Suchtools helfen, schneller an relevante Informationen zu kommen:
- you.com & Perplexity: Recherche zu allgemeinen Themen – „You.com gibt einen schnellen Überblick, aber die Ergebnisse ähneln oft den ersten Google-Treffern. Nicht schlecht, aber man muss kritisch bleiben.“
- Consensus & Scispace: Hilfreich bei der Recherche in Wissenschaftsthemen – „Consensus finde ich spannend, weil es Zusammenfassungen von Forschungsergebnissen erstellt. Bei SciSpace kann man direkt mit der KI über Paper chatten.“
- Deep Research von OpenAI: Recherche in einer breiten Themenvielfalt – „Das liefert wirklich gute Ergebnisse – aber für 200 Dollar im Monat muss man sich gut überlegen, ob sich das lohnt.“
- Microsoft Co-Pilot: „Ganz ehrlich, nicht wirklich gut. Man muss extrem aufpassen, was dabei rauskommt.“
Nutzungskontext & Product Discovery: Den Problemraum verstehen
Für das Erarbeiten und Verstehen des Problemraums empfiehlt Tara foglende Tools:
- Value Discovery: erstellt Value Canvas, Personas, Jobs to be done, usw. – „Es produziert brauchbare Value Canvas und Personas, aber ich habe noch nicht herausgefunden, von wem das Tool eigentlich ist. Datenschutz? Keine Ahnung.“
- Product Context Analyzer: führt Sekundäranalysen zum Nutzungkontext, Stakeholder, Task-Flows und Journey Maps durch. – „Die Analysen sind solide, aber man muss bedenken, dass sie nur auf bestehenden Daten basieren.“
Interviewleitfäden erstellen
Für die Erstellung von Leitfäden empfahl Tara eine Kombination aus ChatGPT und PrivateGPT: „Das Tool anonymisiert und verschlüsselt die Daten, bevor sie zu ChatGPT gehen. Das macht es DSGVO-technisch sicher.“
Microsoft Co-Pilot bietet sich dann an, wenn man Dokumente auf Basis von Vorlagen erstellen muss.
Interviews durchführen
Es gibt inzwischen eine Vielzahl an Tools, die selbstständig Interviews führen können:
- Tellet: Self-Service-Plattform für UX-Research – „Man kann Nachfragen einstellen, aber das Problem ist: Wir wissen nicht genau, wie das Tool zu seinen Schlüssen kommt.“
- Xelper: Full-Service-Plattform für UX-Research – „Bietet einen Full-Service-Ansatz mit Qualitätssicherung. Ich finde es interessant, dass sie eine manuelle Überprüfung in den Prozess eingebaut haben.“
- Wondering: Self-Service-Plattform für UX-Research – „Führt Interviews ohne vorher hochgeladenen Leitfaden – praktisch für explorative Gespräche, aber wenig steuerbar.“
- Listen: Self-Service-Plattform für UX-Research – „Wenn-Dann-Abzweigungen klingen erstmal toll, aber sie ersetzen keine echten Interviewer:innen, die flexibel auf Antworten reagieren.“
„Diese Tools können klassische qualitative Interviews noch nicht ersetzen, aber sie sind eine gute Ergänzung, wenn es darum geht, die Anzahl der Gespräche zu skalieren.“
Transkription: Der unterschätzte Gamechanger
KI-Tools sorgen für schnelle und präzise Transkriptionen:
- Reduct: Hohe Präzision bei Transkript in deutscher Sprache – „Man kann mit dem Video chatten und Markierungen setzen. Das bringt eine ganz neue Dynamik in die Analyse.“
- Condens: Repository-Tool, was auch Transkript kann – „Es ist eigentlich ein Research-Repository, aber die Transkriptionsfunktion ist ein schöner Bonus.“
„Diese Tools funktionieren deutlich besser als die eingebauten Transkriptionen von Zoom oder Teams.“
Analyse: Die KI als Research-Partner?
Für die Auswertung von Daten aus UX-Research-Maßnahmen gibt es noch nicht viele Tools, die dabei unterstützen:
- ChatGPT bleibt die erste Wahl für anonymisierte Daten: „Wenn man es sequenziell nutzt, kann es schon echt gute Analysen liefern. Aber es gibt noch keine perfekte Lösung.“
- Reveal: flexible und faktenbasierte Analyse von qualitativen Interviews – „Faktenbasiert, aber sehr teuer und man kann nicht nachvollziehen, wie es zu seinen Ergebnissen kommt.“
„Gerade bei der Analyse zeigt sich, dass KI-Tools noch nicht perfekt sind. Sie helfen, Muster zu erkennen – aber wer sich blind auf sie verlässt, läuft Gefahr, Unsinn zu produzieren.“
Customer Journey Mapping: KI mit Licht und Schatten
Auch bei Tools für Customer Journey Mapping hält KI Einzug:
- Theydo: Journey Management Tool mit KI-Automatisierung – „Es erstellt Journey Maps aus Interviews, aber ich war nicht ganz überzeugt. ChatGPT macht das manchmal besser.“
- cxomni: Journey Management Tool mit KI-Automatisierung – „Die KI-Unterstützung hier bei der Erstellung von Journeys auf Basis von Kundenfeedback ist spannend – das Tool hat definitiv Potenzial.“
Personas: Echte Daten vs. „Thin Air“
Es gibt sehr viele Persona-Tools, die auf Basis von LLMs Personas erstellen, teilweise auch ohne eine solide Datengrundlage. Die Ergebnisse können nach Taras Einschätzung mit Personas, die in einem Mixed-Method-Ansatz erstellt werden, nicht mithalten.
- User Persona Generator: Erstellt auf Basis Interviews Personas – „Man kann Interviews hochladen und daraus Personas generieren. Eine der besseren Lösungen.“
- Concept-m (https://www.conceptm.ai/): Persona-Erstellung auf Basis von Interview- und Zielgruppen-Daten – „Hier steckt eine echte Datenbasis dahinter. Die Personas können sogar weiter befragt werden.“
Insights Management: Wissen strukturieren
- Marvin & Dovetail: Research-Repository – „Diese Tools helfen, interne Daten besser zu organisieren und zu durchsuchen.“
- Notably: Research-Repository – „Die KI-gestützte Analyse ist spannend, aber Halluzinationen sind noch ein Problem.“
- Entropik: Research-Repository mit Gesichts- und Emotionserkennung – „Gesichts- und Emotionserkennung? Schwierig. Ich bin skeptisch, was den Mehrwert angeht.“
Prototyping: Noch nicht auf Augenhöhe mit Designer:innen
- UIZARD: Text to Design, gehört mittlerweile Miro – „Für den ersten schnellen Entwurf okay, aber für echte Produkte noch zu ungenau.“
- UX Pilot: Auto-Generierung von Wireframes und UIs – „Die KI produziert oft generische Designs, die nicht zum konkreten Use Case passen.“
„Diese Tools helfen vielleicht in den ersten 20 Minuten, aber sobald es um spezifische Use Cases geht, scheitern sie an den Details.“
Fazit – KI sinnvoll einsetzen, aber mit Bedacht
KI kann den UX-Research-Prozess massiv beschleunigen und vereinfachen – wenn man die richtigen Tools nutzt und ihre Grenzen kennt. Tara wies auf einige kritische Punkte hin, die man bei der Nutzung von KI-Tools immer im Hinterkopf behalten sollte:
- Fehlende Transparenz in den Modellen: „Bei vielen KI-Tools geben wir die Kontrolle über den Prompt ab. Das ist riskant, weil wir nicht nachvollziehen können, wie das Tool zu seinen Schlussfolgerungen kommt.“
Viele KI-gestützte Services sind Black Boxes – sie liefern Ergebnisse, aber ohne genau offenzulegen, welche Datenbasis oder Logik dahintersteckt. - Eingeschränktes Kontextverständnis: „KI erkennt Muster, aber sie versteht nicht wirklich, worum es geht.“
- Datenschutz: „Man muss genau wissen, welche Daten man wo eingibt. Viele Tools speichern und analysieren Eingaben – das kann problematisch sein.“
Besonders bei personenbezogenen oder vertraulichen Daten ist Vorsicht geboten. Die meisten Standard-KI-Modelle wie ChatGPT speichern Eingaben – daher sind Lösungen wie PrivateGPT oder On-Premise-KI-Modelle oft die bessere Wahl. - Schwächen bei komplexen Analysen: „Wenn es um große Datenmengen oder tiefere qualitative Analysen geht, kommt KI oft an ihre Grenzen.“
KI kann gut erste Clusterings oder Zusammenfassungen liefern – aber bei hochkomplexen Auswertungen stößt sie an ihre Grenzen. Oft sind manuelle Überprüfungen und iterative Anfragen nötig, um wirklich brauchbare Erkenntnisse zu erhalten. - Halluzinationen und ungenaue Ergebnisse: „KI klingt immer super selbstbewusst – selbst wenn sie völligen Unsinn erzählt.“
Ein klassisches Problem: KI erfindet Quellen oder zieht falsche Schlüsse. Deshalb gilt: Ergebnisse immer kritisch hinterfragen und validieren! - Tools als vorgeschaltete Interfaces für bestehende KI-Modelle: „Viele der KI-Tools, die wir getestet haben, sind eigentlich nur gut designte Interfaces für bestehende Large Language Models.“ Das bedeutet, dass man manchmal genauso gut direkt mit ChatGPT oder anderen offenen Modellen arbeiten kann, statt teure Speziallösungen zu buchen.
„Es gibt keine perfekte KI für UX-Research. Nutzt die Tools als Ergänzung – aber verlasst euch nicht blind auf sie.“
Folien & Links
Die Folien zum Webinar mit allen Links kannst Du Dir hier herunterladen.
Vielen Dank
Ich danke Tara für den wertvollen Überblick und Einblicke. Ein großes Dankeschön an unseren Sponsor cxomni, ohne den dieses Webinar nicht möglich gewesen wäre.