Attenzione: i dati modificati non sono ancora stati salvati. Per confermare inserimenti o cancellazioni di voci è necessario confermare con il tasto SALVA/INSERISCI in fondo alla pagina
IRIS
Coincident with the tsunami of COVID-19-related publications, there has been a surge of studies using real-world data, including those obtained from the electronic health record (EHR). Unfortunately, several of these high-profile publications were retracted because of concerns regarding the soundness and quality of the studies and the EHR data they purported to analyze. These retractions highlight that although a small community of EHR informatics experts can readily identify strengths and flaws in EHR-derived studies, many medical editorial teams and otherwise sophisticated medical readers lack the framework to fully critically appraise these studies. In addition, conventional statistical analyses cannot overcome the need for an understanding of the opportunities and limitations of EHR-derived studies. We distill here from the broader informatics literature six key considerations that are crucial for appraising studies utilizing EHR data: Data completeness, data collection and handling (eg, transformation), data type (ie, codified, textual), robustness of methods against EHR variability (within and across institutions, countries, and time), transparency of data and analytic code, and the multidisciplinary approach. These considerations will inform researchers, clinicians, and other stakeholders as to the recommended best practices in reviewing manuscripts, grants, and other outputs from EHR-data derived studies, and thereby promote and foster rigor, quality, and reliability of this rapidly growing field.
What every reader should know about studies using electronic health record data but may be afraid to ask
Kohane I. S.;Aronow B. J.;Avillach P.;Beaulieu-Jones B. K.;Bellazzi R.;Bradford R. L.;Brat G. A.;Cannataro M.;Cimino J. J.;Garcia-Barrio N.;Gehlenborg N.;Ghassemi M.;Gutierrez-Sacristan A.;Hanauer D. A.;Holmes J. H.;Hong C.;Klann J. G.;Loh N. H. W.;Luo Y.;Mandl K. D.;Daniar M.;Moore J. H.;Murphy S. N.;Neuraz A.;Ngiam K. Y.;Omenn G. S.;Palmer N.;Patel L. P.;Pedrera-Jimenez M.;Sliz P.;South A. M.;Tan A. L. M.;Taylor D. M.;Taylor B. W.;Torti C.;Vallejos A. K.;Wagholikar K. B.;Weber G. M.;Cai T.;Albayrak A.;Amendola D. F.;Anthony L. L. L. J.;Atz A.;Bell D. S.;Bellasi A.;Benoit V.;Beraghi M.;Sobrino J. L. B.;Bernaux M.;Bey R.;Martinez A. B.;Boeker M.;Bonzel C. -L.;Booth J.;Bosari S.;Bourgeois F. T.;Breant S.;Bucalo M.;Burgun A.;Cao A.;Caucheteux C.;Champ J.;Chiovato L.;Colicchio T. K.;Cormont S.;Cossin S.;Craig J.;Bermudez J. L. C.;Dagliati A.;Daniel C.;Davoudi A.;Devkota B.;Dubiel J.;DuVall S. L.;Esteve L.;Fan S.;Follett R. W.;Gaiolla P. S. A.;Ganslandt T.;Barrio N. G.;Geva A.;Gradinger T.;Gramfort A.;Griffier R.;Griffon N.;Grisel O.;Haverkamp C.;Hilka M.;Horki P.;Hutch M. R.;Issitt R.;Jannot A. S.;Jouhet V.;Keller M. S.;Kirchoff K.;Krantz I. D.;Kraska D.;Krishnamurthy A. K.;L'Yi S.;Le T. T.;Leblanc J.;Lemaitre G.;Lenert L.;Leprovost D.;Liu M.;Lynch K. E.;Mahmood S.;Maidlow S.;Malovini A.;Mao C.;Martel P.;Masino A. J.;Matheny M. E.;Maulhardt T.;McDuffie M. T.;Mensch A.;Minicucci M. F.;Moal B.;Morris J. S.;Morris M.;Moshal K. L.;Mousavi S.;Mowery D. L.;Murad D. A.;Obeid J.;Okoshi M. P.;Olson K. L.;Orlova N.;Ostasiewski B. D.;Paris N.;Jimenez M. P.;Prokosch H. U.;Prudente R. A.;Ramoni R. B.;Raskin M.;Rieg S.;Dominguez G. R.;Salamanca E.;Samayamuthu M. J.;Sandrin A.;Schiver E.;Schuettler J.;Scudeller L.;Sebire N.;Balazote P. S.;Serre P.;Serret-Larmande A.;Silvio D.;Son J.;Spiridou A.;Tan B. W. Q.;Tan B. W. L.;Tanni S. E.;Tibollo V.;Tippmann P.;Varoquaux G.;Vie J. -J.;Visweswaran S.;Waitman L. R.;Wassermann D.;William Y.;Xia Z.;Zambelli A.;Carmona A.;Sonday C.;Balshi J.
2021-01-01
Abstract
Coincident with the tsunami of COVID-19-related publications, there has been a surge of studies using real-world data, including those obtained from the electronic health record (EHR). Unfortunately, several of these high-profile publications were retracted because of concerns regarding the soundness and quality of the studies and the EHR data they purported to analyze. These retractions highlight that although a small community of EHR informatics experts can readily identify strengths and flaws in EHR-derived studies, many medical editorial teams and otherwise sophisticated medical readers lack the framework to fully critically appraise these studies. In addition, conventional statistical analyses cannot overcome the need for an understanding of the opportunities and limitations of EHR-derived studies. We distill here from the broader informatics literature six key considerations that are crucial for appraising studies utilizing EHR data: Data completeness, data collection and handling (eg, transformation), data type (ie, codified, textual), robustness of methods against EHR variability (within and across institutions, countries, and time), transparency of data and analytic code, and the multidisciplinary approach. These considerations will inform researchers, clinicians, and other stakeholders as to the recommended best practices in reviewing manuscripts, grants, and other outputs from EHR-data derived studies, and thereby promote and foster rigor, quality, and reliability of this rapidly growing field.
COVID-19 Data quality Electronic health records Literature Publishing Quality Real-world data Reporting checklist Reporting standards Review Statistics COVID-19 Data Collection Humans Peer Review, Research Publishing Reproducibility of Results SARS-CoV-2 Electronic Health Records
I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.
Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.12317/74720
Attenzione
Attenzione! I dati visualizzati non sono stati sottoposti a validazione da parte dell'ateneo
Citazioni
ND
70
59
social impact
Conferma cancellazione
Sei sicuro che questo prodotto debba essere cancellato?
simulazione ASN
Il report seguente simula gli indicatori relativi alla propria produzione scientifica in relazione alle soglie ASN 2023-2025 del proprio SC/SSD. Si ricorda che il superamento dei valori soglia (almeno 2 su 3) è requisito necessario ma non sufficiente al conseguimento dell'abilitazione. La simulazione si basa sui dati IRIS e sugli indicatori bibliometrici alla data indicata e non tiene conto di eventuali periodi di congedo obbligatorio, che in sede di domanda ASN danno diritto a incrementi percentuali dei valori. La simulazione può differire dall'esito di un’eventuale domanda ASN sia per errori di catalogazione e/o dati mancanti in IRIS, sia per la variabilità dei dati bibliometrici nel tempo. Si consideri che Anvur calcola i valori degli indicatori all'ultima data utile per la presentazione delle domande.
La presente simulazione è stata realizzata sulla base delle specifiche raccolte sul tavolo ER del Focus Group IRIS coordinato dall’Università di Modena e Reggio Emilia e delle regole riportate nel DM 589/2018 e allegata Tabella A. Cineca, l’Università di Modena e Reggio Emilia e il Focus Group IRIS non si assumono alcuna responsabilità in merito all’uso che il diretto interessato o terzi faranno della simulazione. Si specifica inoltre che la simulazione contiene calcoli effettuati con dati e algoritmi di pubblico dominio e deve quindi essere considerata come un mero ausilio al calcolo svolgibile manualmente o con strumenti equivalenti.