Attrezzo

Blog

CasaCasa / Blog / Attrezzo

Jun 23, 2024

Attrezzo

Scientific Reports volume 13, numero articolo: 9591 (2023) Cita questo articolo 573 Accessi 1 Dettagli sulle metriche alternative La quantificazione e la comprensione dei dati chirurgici espongono modelli sottili nei compiti e

Rapporti scientifici volume 13, numero articolo: 9591 (2023) Citare questo articolo

573 accessi

1 Altmetrico

Dettagli sulle metriche

La quantificazione e la comprensione dei dati chirurgici espongono modelli sottili nei compiti e nelle prestazioni. L’abilitazione dei dispositivi chirurgici all’intelligenza artificiale fornisce ai chirurghi una valutazione personalizzata e obiettiva delle prestazioni: un’assistenza chirurgica virtuale. Qui presentiamo modelli di apprendimento automatico sviluppati per analizzare la finezza chirurgica utilizzando i dati di forza di interazione strumento-tessuto nella dissezione chirurgica ottenuti da una pinza bipolare sensorizzata. La modellazione dei dati è stata eseguita utilizzando 50 procedure di neurochirurgia che prevedevano trattamenti chirurgici elettivi per varie patologie intracraniche. La raccolta dei dati è stata condotta da 13 chirurghi con diversi livelli di esperienza utilizzando una pinza bipolare sensorizzata, SmartForceps System. L'algoritmo di apprendimento automatico ha costituito progettazione e implementazione per tre scopi principali, vale a dire la segmentazione del profilo di forza per ottenere periodi attivi di utilizzo dello strumento utilizzando TU-Net, la classificazione delle abilità chirurgiche in Esperto e Principiante e il riconoscimento del compito chirurgico in due categorie principali di coagulazione rispetto a non -Coagulazione mediante architetture di deep learning FTFIT. Il rapporto finale per il chirurgo era un dashboard contenente segmenti riconosciuti di applicazione della forza classificati in classi di abilità e attività insieme a grafici delle metriche delle prestazioni rispetto ai chirurghi di livello esperto. È stata utilizzata la registrazione dei dati della sala operatoria di > 161 ore contenenti circa 3,6 K periodi di funzionamento dello strumento. Il modello ha prodotto un punteggio F1 ponderato = 0,95 e AUC = 0,99 per la segmentazione del profilo di forza utilizzando TU-Net, un punteggio F1 ponderato = 0,71 e AUC = 0,81 per la classificazione delle abilità chirurgiche e un punteggio F1 ponderato = 0,82 e AUC = 0,89 per riconoscimento dell'attività chirurgica utilizzando un sottoinsieme di funzionalità realizzate manualmente aumentate alla rete neurale FTFIT. Questo studio fornisce un nuovo modulo di apprendimento automatico in un cloud, consentendo una piattaforma end-to-end per il monitoraggio e la valutazione delle prestazioni chirurgiche intraoperatorie. Accessibile tramite un'applicazione sicura per la connettività professionale, viene stabilito un paradigma per l'apprendimento basato sui dati.

L’integrazione dell’intelligenza artificiale (AI) alimentata dalla connettività cloud per aggregare i dati all’interno e tra le sale operatorie (OR) offre uno strumento oggettivo per un feedback sistematico sull’uso ottimale di dispositivi e sistemi medici. Ciò è importante per migliorare la sicurezza degli interventi chirurgici e utilizzare l’innovazione digitale verso la standardizzazione della cura dei pazienti. L’implementazione dell’intelligenza artificiale attraverso dispositivi chirurgici basati su sensori e dati può trasformare la formazione tradizionale e soggettiva basata sull’apprendistato in un paradigma oggettivo e non intimidatorio1. L'assistenza contestuale tramite il riconoscimento della fase chirurgica può ulteriormente facilitare e migliorare il processo di formazione attraverso un feedback analitico particolareggiato sull'esecuzione dell'intervento2. Essendo una nuova frontiera nel coaching chirurgico, la scienza dei dati chirurgici può essere definita attraverso nuovi framework che coinvolgono la raccolta, la strutturazione, l'analisi e la modellazione di tali dati3,4.

Gli algoritmi di apprendimento automatico in chirurgia, anche se precoci, possono migliorare la cura di varie patologie, tra cui epilessia, tumori cerebrali, lesioni della colonna vertebrale e disturbi cerebrovascolari5. I dati guidati dai sensori possono essere utilizzati per catturare con precisione la destrezza e l'abilità tecnica del chirurgo, utilizzando caratteristiche significative estratte dalle manovre chirurgiche e dal flusso di lavoro. Ciò, a sua volta, aiuterebbe a fornire una metrica di feedback quantitativo durante un periodo di formazione chirurgica graduale. Il movimento degli strumenti è stato utilizzato in passato come misura cinematica delle prestazioni e della discriminazione delle competenze in un ambiente di laboratorio6,7,8. Per la valutazione delle competenze, è stato implementato un sistema di tracciamento degli strumenti basato sul deep learning basato su video chirurgici, conforme alle metriche manuali Objective Structured Assessment of Technical Skill (OSATS) e Global Evaluative Assessment of Robotic Skill (GEARS)9. La valutazione delle abilità chirurgiche e la navigazione nella chirurgia del colon-retto possono essere facilitate attraverso il riconoscimento del tipo di pinza e degli oggetti sui dati video10. Inoltre, l'uso delle caratteristiche di movimento estratte dall'analisi del modello temporale video ha portato alla categorizzazione e all'analisi delle azioni chirurgiche11,12. È stata inoltre pubblicata una revisione completa della letteratura sull'analisi delle abilità chirurgiche13. I manoscritti inclusi in questa revisione hanno utilizzato dati cinematici (61%) e video (29%), con un'attenzione limitata alle forze strumento-tessuto14,15. I modelli ML utilizzati nel presente documento erano reti neurali artificiali (ANN), modelli Markov nascosti (HMM) e macchine vettoriali di supporto (SVM), tutti con una precisione superiore all'80%. I loro risultati, tuttavia, erano limitati nei dati provenienti dalla chirurgia nella vita reale (12%), così come nella mancanza di un quadro applicativo per fornire ai chirurghi un feedback interpretabile e clinicamente rilevante.

 4 years (n = 4), and one fellow./p>