Hostname: page-component-89b8bd64d-nlwjb Total loading time: 0 Render date: 2026-05-07T20:46:29.482Z Has data issue: false hasContentIssue false

Twitter metrics complement traditional conference evaluations to evaluate knowledge translation at a National Emergency Medicine Conference

Published online by Cambridge University Press:  26 March 2020

Stella Yiu*
Affiliation:
Department of Emergency Medicine, University of Ottawa Faculty of Medicine, Ottawa, ON
Sebastian Dewhirst
Affiliation:
Department of Emergency Medicine, University of Ottawa Faculty of Medicine, Ottawa, ON
Ali Jalali
Affiliation:
Department of Innovation in Medical Education and Faculty of Medicine, University of Ottawa, Ottawa, ON
A. Curtis Lee
Affiliation:
School of Medicine and Public Health, University of Newcastle, Callaghan, NSW, Australia
Jason R Frank
Affiliation:
Department of Emergency Medicine, University of Ottawa Faculty of Medicine, Ottawa, ON Royal College of Physicians and Surgeons of Canada, Ottawa, ON
*
Correspondence to: Dr. Stella Yiu, The Ottawa Hospital, 1053 Carling Avenue, Room M206, Ottawa, OntarioK1Y 4E9Canada; Email: syiu@toh.ca

Abstract

Objectives

Conferences are designed for knowledge translation, but traditional conference evaluations are inadequate. We lack studies that explore alternative metrics to traditional evaluation metrics. We sought to determine how traditional evaluation metrics and Twitter metrics performed using data from a conference of the Canadian Association of Emergency Physicians (CAEP).

Methods

This study used a retrospective design to compare social media posts and tradition evaluations related to an annual specialty conference. A post (“tweet”) on the social media platform Twitter was included if it associated with a session. We differentiated original and discussion tweets from retweets. We weighted the numbers of tweets and retweets to comprise a novel Twitter Discussion Index. We extracted the speaker score from the conference evaluation. We performed descriptive statistics and correlation analyses.

Results

Of a total of 3,804 tweets, 2,218 (58.3%) were session-specific. Forty-eight percent (48%) of all sessions received tweets (mean = 11.7 tweets; 95% CI of 0 to 57.5; range, 0–401), with a median Twitter Discussion Index score of 8 (interquartile range, 0 to 27). In the 111 standard presentations, 85 had traditional evaluation metrics and 71 received tweets (p > 0.05), while 57 received both. Twenty (20 of 71; 28%) moderated posters and 44% (40 of 92) posters or oral abstracts received tweets without traditional evaluation metrics. We found no significant correlation between Twitter Discussion Index and traditional evaluation metrics (R = 0.087).

Conclusions

We found no correlation between traditional evaluation metrics and Twitter metrics. However, in many sessions with and without traditional evaluation metrics, audience created real-time tweets to disseminate knowledge. Future conference organizers could use Twitter metrics as a complement to traditional evaluation metrics to evaluate knowledge translation and dissemination.

Résumé

RésuméObjectif

Les congrès sont conçus pour favoriser l'application des connaissances, mais les méthodes classiques d’évaluation ne conviennent pas vraiment à l'objet visé, et il existe peu d’études sur la recherche d'autres instruments de mesure. La présente étude avait donc comme objectif de comparer la performance des méthodes classiques d’évaluation avec celle d'indicateurs Twitter, à l'aide de données recueillies au cours d'un congrès de l'Association canadienne des médecins d'urgence.

Méthode

Il s'agit d'une étude rétrospective dans laquelle ont été comparées des publications dans les réseaux sociaux et des méthodes classiques d’évaluation en lien avec un congrès annuel de médecine de spécialité. Les publications (« gazouillis ») faites sur la plateforme de réseau social Twitter étaient retenues si elles se rapportaient à une séance. L’équipe a fait la distinction entre les gazouillis originaux et les échanges, et les gazouillis partagés, puis a pondéré le nombre de gazouillis originaux et de gazouillis partagés afin de constituer un nouvel indice d’échanges sur Twitter. Le résultat de l’évaluation des conférenciers a été tiré de l’évaluation du congrès. L’équipe a finalement procédé au calcul de statistiques descriptives et à des analyses de corrélation.

Résultats

Sur un total de 3804 gazouillis, 2218 (58,3%) se rapportaient à des séances en particulier. Quarante-huit pour cent (48%) des séances ont fait l'objet de gazouillis (moyenne : 11,7; IC à 95% : 0- 57,5; plage : 0-401) et le résultat médian de l'indice d’échanges sur Twitter s’élevait à 8 (IIQ : 0-27). Sur les 111 présentations de type usuel, 85 ont été soumises à des évaluations classiques; 71 ont suscité des gazouillis (p > 0,05) et 57 ont fait l'objet et d’évaluations classiques et de gazouillis. Vingt séances d'affichage animées (20 sur 71; 28%) et 44% (40 sur 92) des présentations par affiches ou des présentations orales de résumés ont fait l'objet de gazouillis seuls. Il ne s'est dégagé aucune corrélation significative de la comparaison entre l'indice d’échanges sur Twitter et les instruments classiques d’évaluation (ρ = 0,087).

Conclusion

Aucune corrélation n'a été établie entre les instruments classiques d’évaluation et les indicateurs Twitter. Toutefois, l’équipe a constaté que, durant bon nombre de séances soumises ou non à des mesures classiques d’évaluation, l'assistance envoyait des gazouillis en temps réel pour diffuser des connaissances. Les organisateurs de congrès futurs pourraient donc utiliser des indicateurs Twitter comme instruments complémentaires des méthodes classiques d’évaluation au regard de l'application et de la diffusion des connaissances.

Information

Type
Original Research
Copyright
Copyright © Canadian Association of Emergency Physicians 2020
Figure 0

Table 1. Properties of traditional evaluation metrics v. Twitter

Figure 1

Table 2. Inclusion and exclusion criteria

Figure 2

Table 3. Tweet classification system

Figure 3

Table 4. Classification of tweets from conference

Figure 4

Figure 1. Sessions receiving conference evaluations and tweets separated by type.

Figure 5

Figure 2. Mean evaluation score v. log of twitter discussion index per session. Note the much higher variability of the Twitter Discussion Index compared with that of the mean evaluation score.