Should we be using LLMs for discharge summarisation?
No se pudo agregar al carrito
Solo puedes tener X títulos en el carrito para realizar el pago.
Add to Cart failed.
Por favor prueba de nuevo más tarde
Error al Agregar a Lista de Deseos.
Por favor prueba de nuevo más tarde
Error al eliminar de la lista de deseos.
Por favor prueba de nuevo más tarde
Error al añadir a tu biblioteca
Por favor intenta de nuevo
Error al seguir el podcast
Intenta nuevamente
Error al dejar de seguir el podcast
Intenta nuevamente
-
Narrado por:
-
De:
This episode, we discuss some of the challenges in using large language models (LLMs) for the task of summarising inpatient encounters.
- 00:30 - Technical wrap - new models, MiT’s State of AI in Business 2025
- 12:40 - Medical summarisation
- 19:30 - Context Rot: How Increasing Input Tokens Impacts LLM Performance
- 30:50 - Verifiable Summarization of Electronic Health Records Using Large Language Models to Support Chart Review
- 40:00 - Evaluating large language models for drafting emergency department encounter summaries
- 42:25 - Evaluating Hospital Course Summarization by an Electronic Health Record-Based Large Language Model
More details in the show notes on our website.
Episodes | Bluesky | info@medicalattention.ai
Todavía no hay opiniones