Event-Feedback sammeln — nach der Veranstaltung

Erstelle professionelle Post-Event-Feedback in wenigen Minuten — mit KI-Unterstützung und ohne Programmierkenntnisse.

Erstelle Feedback-Umfragen für nach Veranstaltungen. Bewertung von Inhalten, Organisation und Referenten mit AI-Auswertung.

Vorschau
questee.ai

Post-Event-Feedback

Wie heißen Sie?
E-Mail-Adresse
Ihre Nachricht
Wie können wir helfen?
Absenden

Vorteile

  • Vorgefertigte Fragen für Events und Konferenzen
  • Sterne-Bewertungen für Referenten und Sessions
  • AI-Zusammenfassung für die Event-Nachbereitung

Post-Event-Feedback nach Branche

Vorlagen für Post-Event-Feedback

Post-Event-Feedback jetzt erstellen

Kostenlos starten — keine Kreditkarte nötig.

Timing nach Event — 24 bis 48 Stunden optimal

Direkt am Event-Ende eine Umfrage zu schicken, ist intuitiv — aber selten optimal. In den ersten Stunden überwiegen Restmüdigkeit oder Reise-Stress, die Antworten werden hektisch und oberflächlich. Nach 24 bis 48 Stunden hat sich der Eindruck gesetzt, der Kontext ist aber noch frisch. Ab Tag 5 verblasst die Erinnerung an einzelne Sessions deutlich.

Für hybride oder Online-Events ist das Timing noch enger. Hier verlieren Sie Aufmerksamkeit doppelt schnell — der Kontext-Wechsel zurück in den Arbeitsalltag passiert sofort. Eine erste kurze Umfrage in den ersten zwei Stunden mit nur einer Frage ("Wie hat Ihnen das Event gefallen?") sichert das Initial-Signal. Die ausführliche Umfrage folgt 24 Stunden später.

Automatisierung ist Pflicht: Manuelle Versendung am Tag danach wird vergessen, wenn das Event-Team in der Nachbereitung steckt. Ein zeitversetzter Webhook nach Event-Ende oder ein Cron-Trigger zu festem Zeitpunkt sind die saubereren Lösungen. Vergessen Sie nicht den Reminder nach drei Tagen für die Nicht-Antworter — der hebt die Response-Rate typischerweise nochmal um 15 bis 25 Prozent.

Open- vs. Closed-Fragen mischen

Reine Skalen-Umfragen ("Wie hat Ihnen Session X gefallen, 1-5?") liefern messbare Daten, aber kein Verständnis. Reine Freitext-Umfragen liefern Verständnis, sind aber nicht aggregierbar. Die Mischung von beidem in einem festen Verhältnis funktioniert in der Praxis am besten — und hält die Umfrage trotzdem kurz.

Ein bewährtes Muster für Event-Feedback: Pro Session zwei geschlossene Fragen (Bewertung Inhalt, Bewertung Vortragsstil) plus eine offene Frage ("Was hätten Sie sich zusätzlich gewünscht?"). Am Ende des Events drei Gesamt-Fragen: NPS, Top-3-Highlights als Multi-Select, eine offene Frage zur Verbesserung. Mit Conditional Logic können Sie zudem nur die Sessions abfragen, die der Teilnehmer auch besucht hat — etwa per Hidden Field aus dem Anmelde-Tool.

Wichtig ist die Reihenfolge. Beginnen Sie mit den geschlossenen Fragen — die sind schnell beantwortet und schaffen Momentum. Die offenen Fragen kommen ans Ende, weil sie kognitiv anstrengender sind. Wer die Skala bei 4 und 5 angeklickt hat, ist eher bereit, danach noch zwei Sätze zu schreiben — wer mit Freitext starten muss, bricht häufiger ab.

Vergleich verschiedener Sessions

Ein häufiger Reflex nach einem Event ist die Frage "Welche Session war die beste?". Diese Frage einfach offen zu stellen, produziert ein Recency-Bias — die letzte Session bekommt überproportional viel Erwähnung. Strukturierte Vergleiche brauchen ein anderes Setup.

Die sauberste Methode ist, jede Session einzeln zu bewerten und die Aggregation hinterher zu rechnen. Pro Session: zwei oder drei einheitliche Fragen (Inhalt, Vortrag, Praxisrelevanz auf einer 1-5-Skala). Am Ende ein zusätzlicher Multi-Select "Welche drei Sessions haben Sie am meisten mitgenommen?" als sekundäre Validierung. Beide Datenquellen kombiniert geben ein robustes Ranking.

Achten Sie auf einen Anti-Bias: Kürzen Sie nicht zu früh ab. Wenn Sie nur die Top-Bewertungen in einem Report zeigen, sehen Sie nur Halbwahrheiten. Eine Session mit 4,5 im Schnitt aber hoher Varianz (manche lieben sie, manche hassen sie) ist ein anderes Phänomen als eine Session mit 4,3 und enger Streuung. Beide Werte gehören in den Report — der Mittelwert reicht selten allein.

Net Promoter für das Event

Der Event-NPS ("Wie wahrscheinlich ist es, dass Sie dieses Event empfehlen?") ist die einzige Metrik, die Sie über mehrere Events hinweg vergleichen können. Eine reine Zufriedenheits-Skala variiert zu sehr, weil das Erwartungsniveau pro Event unterschiedlich ist. NPS normalisiert das, weil die Empfehlungs-Frage einen klaren externen Bezug hat.

Die Auswertung folgt dem Standard: Promoter (9-10) minus Detraktoren (0-6) als Prozentpunkte. Wichtig ist die Anzeige nicht nur als Score, sondern auch in der Verteilung — ein NPS von 30 aus "viele 9er, einige 6er" ist anders als "viele 10er, viele 5er". Letzteres ist ein Polarisierungs-Signal und braucht andere Aktionen.

Kombinieren Sie NPS immer mit einer offenen Folgefrage: bei Promotern "Was war für Sie das Highlight?", bei Detraktoren "Was hat gefehlt?". Diese qualitativen Antworten sind die eigentliche Goldmine — sie sagen Ihnen, warum die Zahlen so sind. Eine AI-Zusammenfassung pro Segment liefert dann den schnellen Überblick, ohne dass jemand 200 Freitext-Antworten lesen muss.

Aktion nach Auswertung — wichtiger als die Zahlen

Eine Event-Feedback-Auswertung, die nur als PDF in einem Ordner landet, war Zeitverschwendung für die Teilnehmer. Sie haben investiert, Antworten zu geben — Sie schulden ihnen mindestens eine Sichtbarkeit, was daraus wurde. Die Verbesserung der nächsten Auflage ist die ehrliche Währung.

Drei konkrete Aktionen pro Auswertung sind das Minimum: Eine kurze Mail an alle Teilnehmer ("Das haben wir gelernt, das ändern wir"), eine interne Liste mit drei messbaren Verbesserungen für das nächste Event, ein Brief an die niedrig bewerteten Speaker mit dem konkreten Feedback (ohne Namen der Antworter, aber mit Tendenz). Letzteres ist unbequem, aber notwendig — Speaker können nur besser werden, wenn sie ehrlich gespiegelt bekommen.

Messen Sie über mehrere Events, ob Ihre Aktionen wirken. Wenn beim nächsten Event derselbe Punkt wieder bemängelt wird, war die Maßnahme entweder unzureichend oder die Diagnose falsch. Ein Activity-Log pro Event mit den getroffenen Maßnahmen schafft Kontinuität, gerade wenn das Event-Team wechselt — sonst beginnt jede neue Auflage bei null und die Lernkurve flacht ab.