Il pretraining MAE potenzia nnFormer per la segmentazione di immagini mediche
Un nuovo framework di pretraining auto-supervisionato basato su Masked Autoencoders (MAE) migliora l'architettura transformer nnFormer per la segmentazione volumetrica di immagini mediche. Il metodo pre-allena il modello su immagini mediche volumetriche non etichettate per ricostruire patch mascherate casualmente, riducendo la dipendenza da grandi dataset etichettati. Ciò affronta problemi comuni come l'overfitting e l'instabilità dell'addestramento nei pipeline completamente supervisionati. L'approccio sfrutta l'abbondanza di dati clinici non etichettati, rendendo la segmentazione più efficiente in termini di dati e pratica.
Fatti principali
- 1. nnFormer è un'architettura transformer per la segmentazione volumetrica di immagini mediche.
- 2. Cattura interazioni spaziali a lungo raggio ma richiede grandi dataset etichettati.
- 3. Overfitting e instabilità dell'addestramento sono problemi comuni.
- 4. Le immagini mediche etichettate richiedono tempo e sono costose da ottenere.
- 5. Le immagini mediche non etichettate sono facilmente disponibili nelle cliniche.
- 6. Il metodo proposto utilizza il pretraining auto-supervisionato basato su MAE.
- 7. Il pretraining comporta la ricostruzione di patch mascherate casualmente.
- 8. L'approccio migliora l'efficienza dei dati e riduce l'overfitting.
Entità
—