Deep Learning fir Bildqualitéit Evaluatioun vun Optical Coherence Tomography Angiography

Merci fir besicht Nature.com.Dir benotzt eng Browser Versioun mat limitéierter CSS Ënnerstëtzung.Fir déi bescht Erfahrung empfeelen mir Iech en aktualiséierte Browser ze benotzen (oder de Kompatibilitéitsmodus am Internet Explorer auszeschalten).Zousätzlech, fir weider Ënnerstëtzung ze garantéieren, weisen mir de Site ouni Stiler a JavaScript.
Sliders déi dräi Artikelen pro Rutsch weisen.Benotzt d'Réck- an d'nächst Knäppercher fir duerch d'Rutschen ze réckelen, oder d'Slide Controller Knäppercher um Enn fir duerch all Rutsch ze réckelen.
Optesch Kohärenz tomographesch Angiographie (OCTA) ass eng nei Method fir net-invasiv Visualiséierung vun Netzhautgefässer.Och wann OCTA vill villverspriechend klinesch Uwendungen huet, bleift d'Bestëmmung vun der Bildqualitéit eng Erausfuerderung.Mir hunn en Deep Learning-baséiert System entwéckelt mat dem ResNet152 neuralen Netzwierkklassifizéierer viraustrainéiert mat ImageNet fir iwwerflächlech Kapillärplexusbilder aus 347 Scans vun 134 Patienten ze klassifizéieren.D'Biller goufen och manuell als richteg Wourecht vun zwee onofhängege Bewäertunge fir e iwwerwaachte Léiermodell bewäert.Well d'Bildqualitéit Ufuerderunge kënne variéieren jee no klineschen oder Fuerschungsastellungen, goufen zwee Modeller trainéiert, eng fir héichqualitativ Bilderkennung an déi aner fir niddereg Qualitéit Bilderkennung.Eisen neuralen Netzwierkmodell weist en exzellent Gebitt ënner der Kurve (AUC), 95% CI 0.96-0.99, \(\kappa\) = 0.81), wat wesentlech besser ass wéi de Signalniveau, deen vun der Maschinn gemellt gëtt (AUC = 0.82, 95) % CI).0,77-0,86, \(\kappa\) = 0,52 an AUC = 0,78, 95% CI 0,73-0,83, \(\kappa\) = 0,27, respektiv).Eis Etude weist datt Maschinnléieremethoden kënne benotzt ginn fir flexibel a robust Qualitéitskontrollmethoden fir OCTA Biller z'entwéckelen.
Optesch Kohärenztomographie (OCTA) ass eng relativ nei Technik baséiert op optesch Kohärenztomographie (OCT), déi fir net-invasiv Visualiséierung vun der Netzhaut-Mikrovaskulatur benotzt ka ginn.OCTA moosst den Ënnerscheed an de Reflexiounsmuster vu widderholl Liichtimpulsen am selwechte Gebitt vun der Netzhaut, a Rekonstruktioune kënnen dann berechent ginn fir Bluttgefässer z'entdecken ouni d'invasiv Notzung vu Faarfstoffer oder aner Kontrastmëttelen.OCTA erméiglecht och Déift-Resolutioun vaskulär Imaging, wat d'Kliniker erlaabt iwwerflächlech an déif Gefässschichten getrennt z'ënnersichen, wat hëlleft tëscht Chorioretinal Krankheet ze differenzéieren.
Och wann dës Technik villverspriechend ass, bleift d'Bildqualitéit Variatioun eng grouss Erausfuerderung fir zouverlässeg Bildanalyse, wat d'Bildinterpretatioun schwéier mécht a verbreet klinesch Adoptioun verhënnert.Well OCTA verschidde konsekutiv OCT Scans benotzt, ass et méi empfindlech op Bildartefakte wéi Standard OCT.Déi meescht kommerziell OCTA Plattforme bidden hir eege Bildqualitéit Metrik genannt Signal Strength (SS) oder heiansdo Signal Strength Index (SSI).Wéi och ëmmer, Biller mat engem héije SS- oder SSI-Wäert garantéieren net d'Feele vu Bildartefakte, déi all spéider Bildanalyse beaflosse kënnen an zu falschen klineschen Entscheedungen féieren.Gemeinsam Bildartefakte déi an der OCTA Imaging optriede kënnen enthalen Bewegungsartefakte, Segmentatiounsartefakte, Medienopazitéit Artefakte a Projektiounsartefakter1,2,3.
Well OCTA-ofgeleet Moossnamen wéi vaskulär Dicht ëmmer méi an der Iwwersetzungsfuerschung, klineschen Studien a klinescher Praxis benotzt ginn, gëtt et en dréngende Bedierfnes fir robust an zouverlässeg Bildqualitéitskontrollprozesser z'entwéckelen fir Bildartefakter ze eliminéieren4.Skip Verbindungen, och bekannt als Reschtverbindungen, sinn Projektiounen an der neuraler Netzwierkarchitektur déi Informatioun erlaben konvolutional Schichten z'iwwergoen wärend Informatioun op verschiddene Skalen oder Resolutioune späichert5.Well Bildartefakte kënnen kleng-Skala an allgemeng grouss-Skala Bildleistung beaflossen, sinn Skip-Connection neural Netzwierker gutt fir dës Qualitéitskontrolltask5 ze automatiséieren.Kuerzem publizéiert Aarbecht huet e puer Versprieche gewisen fir déif konvolutional neural Netzwierker trainéiert mat héichqualitativen Daten vu mënschleche Schätzungen6.
An dëser Etude trainéiere mir e Verbindungssprangende konvolutionalen neurale Netzwierk fir automatesch d'Qualitéit vun OCTA Biller ze bestëmmen.Mir bauen op fréier Aarbecht andeems se separat Modeller entwéckelen fir héichqualitativ Biller a geréng Qualitéitsbilder z'identifizéieren, well d'Bildqualitéitsufuerderunge kënne fir spezifesch klinesch oder Fuerschungsszenarien ënnerscheeden.Mir vergläichen d'Resultater vun dësen Netzwierker mat konvolutionalen neuralen Netzwierker ouni fehlend Verbindungen fir de Wäert ze evaluéieren fir Features op multiple Niveaue vu Granularitéit bannent déif Léieren ze evaluéieren.Mir verglach dann eis Resultater mat Signalstäerkt, eng allgemeng akzeptéiert Moossnam vun der Bildqualitéit, déi vun Hiersteller geliwwert gëtt.
Eis Etude abegraff Patienten mat Diabetis déi de Yale Eye Center tëscht dem 11. August 2017 an dem 11. Abrëll 2019 besicht hunn. Patienten mat all net-diabetescher chorioretinaler Krankheet goufen ausgeschloss.Et waren keng Inklusioun oder Exklusioun Critèren baséiert op Alter, Geschlecht, Rass, Bild Qualitéit, oder all aner Faktor.
OCTA Biller goufen mat der AngioPlex Plattform op engem Cirrus HD-OCT 5000 (Carl Zeiss Meditec Inc, Dublin, CA) ënner 8\(\times\)8 mm a 6\(\times\)6 mm Imaging Protokoller kaaft.Informéiert Zoustëmmung fir d'Participatioun an der Etude gouf vun all Etude Participant kritt, an der Yale University Institutional Review Board (IRB) guttgeheescht d'Benotzung vun informéiert Zoustëmmung mat global Fotografie fir all dës Patienten.No de Prinzipien vun der Deklaratioun vun Helsinki.D'Etude gouf vun der Yale University IRB guttgeheescht.
Surface Plack Biller goufen evaluéiert baséiert op de virdru beschriwwenen Motion Artifact Score (MAS), de virdru beschriwwene Segmentation Artifact Score (SAS), de Fovealzentrum, d'Präsenz vun der Medienopazitéit a gudder Visualiséierung vu klenge Kapillaren wéi bestëmmt vum Bildbewäerter.D'Biller goufen vun zwee onofhängege Bewäerter (RD an JW) analyséiert.E Bild huet e gradéierte Score vun 2 (berechtegt) wann all déi folgend Critèren erfëllt sinn: Bild ass an der Fovea zentréiert (manner wéi 100 Pixel aus dem Zentrum vum Bild), MAS ass 1 oder 2, SAS ass 1, an Medienopazitéit ass manner wéi 1. Presentéiert op Biller vu Gréisst / 16, a kleng Kapillaren ginn a Biller méi grouss wéi 15/16 gesi.E Bild gëtt 0 (keng Bewäertung) bewäert wann ee vun de folgende Critèren erfëllt ass: d'Bild ass off-center, wann MAS 4 ass, wann SAS 2 ass, oder déi duerchschnëttlech Opazitéit méi wéi 1/4 vum Bild ass, an déi kleng capillaries kann net méi ugepasst ginn wéi 1 Bild /4 ze z'ënnerscheeden.All aner Biller déi net de Scorecritèren 0 oder 2 entspriechen, ginn als 1 geschoss (Ausschneiden).
Op Fig.1 weist Probe Biller fir jiddereng vun de skaléiert Schätzungen a Bildartefakte.Inter-Rater Zouverlässegkeet vun eenzelne Partituren gouf vum Cohen säi Kappagewiicht8 bewäert.Déi individuell Partituren vun all Bewäerter ginn zesummegefaasst fir e Gesamtscore fir all Bild ze kréien, rangéiert vun 0 bis 4. Biller mat engem Gesamtscore vu 4 ginn als gutt ugesinn.Biller mat engem Gesamtscore vun 0 oder 1 ginn als niddereg Qualitéit ugesinn.
A ResNet152 Architektur convolutional neural Netzwierk (Fig. 3A.i) pre-trainéiert op Biller aus der ImageNet Datebank gouf generéiert mat fast.ai an de PyTorch Framework5, 9, 10, 11. E convolutional neural Netzwierk ass e Netzwierk dat de geléierte benotzt Filtere fir Bildfragmenter ze scannen fir raimlech a lokal Features ze studéieren.Eis trainéiert ResNet ass en 152-Schicht neuralt Netzwierk charakteriséiert duerch Lücken oder "Reschtverbindungen", déi gläichzäiteg Informatioun mat multiple Resolutiounen iwwerdroen.Andeems Dir Informatioun mat verschiddene Resolutiounen iwwer d'Netz projizéiert, kann d'Plattform d'Features vun niddereg-Qualitéit Biller op verschidde Niveauen vun Detail léieren.Zousätzlech zu eisem ResNet Modell, hu mir och AlexNet trainéiert, eng gutt studéiert neural Netzwierkarchitektur, ouni Verbindunge fir de Verglach ze fehlen (Figure 3A.ii)12.Ouni fehlende Verbindungen, kann dëst Netzwierk keng Features mat enger méi héijer Granularitéit erfaassen.
Den ursprénglechen 8\(\mol\)8mm OCTA13 Bildset gouf mat horizontalen a vertikale Reflexiounstechniken verbessert.Déi komplett Dataset gouf dann zoufälleg um Bildniveau an Training (51.2%), Testen (12.8%), Hyperparameter Tuning (16%) a Validatioun (20%) Datesätz mat der scikit-learn Toolbox Python14 opgedeelt.Zwee Fäll goufe berücksichtegt, een baséiert op der Entdeckung vun nëmmen déi héchst Qualitéitsbiller (Gesamtscore 4) an deen aneren baséiert op der Detektioun vun nëmmen déi niddregste Qualitéitsbiller (Gesamtscore 0 oder 1).Fir all qualitativ héichwäerteg a geréng qualitativ Benotzungsfall gëtt den neurale Netzwierk eemol op eise Bilddaten nei trainéiert.An all Benotzungsfall gouf d'neural Netzwierk fir 10 Epochen trainéiert, all awer déi héchst Schichtgewichte goufen gefruer, an d'Gewiichter vun all internen Parameteren goufen fir 40 Epoche geléiert mat enger diskriminativer Léierrate Method mat enger Cross-Entropie Verloscht Funktioun 15, 16..D'Kräiz Entropie Verloscht Funktioun ass eng Moossnam vun der logarithmescher Skala vun der Diskrepanz tëscht virausgesot Reseau Etiketten an real Donnéeën.Wärend der Ausbildung gëtt Gradient Ofstamung op den internen Parameteren vum neurale Netzwierk gemaach fir Verloschter ze minimiséieren.D'Léierrate, d'Ausfallrate, an d'Gewiichtreduktiounshyperparameter goufe mat der Bayesianer Optimisatioun mat 2 zoufälleg Startpunkten an 10 Iteratiounen ofgestëmmt, an d'AUC op der Dataset gouf mat den Hyperparameter als Zil vu 17 ofgestëmmt.
Representativ Beispiller vun 8 × 8 mm OCTA Biller vun iwwerflächleche Kapillarplexusen hunn 2 (A, B), 1 (C, D) an 0 (E, F) geschoss.Bildartefakte gewisen enthalen flakkende Linnen (Pfeile), Segmentatiounsartefakte (Stären), a Medienopazitéit (Pfeile).Bild (E) ass och off-Center.
Receiver Operatiounseigenschaften (ROC) Kéiren ginn dann fir all neural Netzwierkmodeller generéiert, a Motorsignalstäerktberichter ginn fir all niddereg-Qualitéit an héichqualitativ Benotzungsfall generéiert.Gebitt ënner der Curve (AUC) gouf mam pROC R Package berechent, an 95% Vertrauensintervaller a p-Wäerter goufen mat der DeLong Method18,19 berechent.Déi kumulativ Partituren vun de mënschleche Bewäertunge ginn als Basis fir all ROC Berechnungen benotzt.Fir d'Signalstäerkt, déi vun der Maschinn gemellt gouf, gouf den AUC zweemol berechent: eemol fir den Héichqualitéit Skalierbarkeet Score Ausschnëtt an eemol fir den nidderegen Qualitéit Scalability Score Cutoff.Den neurale Netzwierk gëtt mat der AUC Signalstäerkt verglach, déi seng eege Trainings- an Evaluatiounsbedingunge reflektéiert.
Fir den trainéierten Deep-Learning-Modell op engem getrennten Dataset weider ze testen, goufen héichqualitativ a niddereg Qualitéitsmodeller direkt op d'Performance Evaluatioun vun 32 voll Gesiicht 6\(\mol\) 6mm Uewerflächeplackbilder gesammelt vun der Yale University applizéiert.Auge Mass zentréiert gläichzäiteg wéi d'Bild 8 \(\mol \) 8 mm.D'6\(\×\) 6 mm Biller goufen manuell vun de selwechte Bewäerter (RD a JW) op déiselwecht Manéier bewäert wéi d'8\(\×\) 8 mm Biller, AUC gouf berechent souwéi Genauegkeet a Cohen's Kappa .gläich.
D'Klass Ongläichgewiicht Verhältnis ass 158:189 (\(\rho = 1.19\)) fir den nidderegen Qualitéitsmodell an 80:267 (\(\rho = 3.3\)) fir den héije Qualitéitsmodell.Well de Klass Ongläichgewiicht Verhältnis manner wéi 1:4 ass, goufen keng spezifesch architektonesch Ännerungen gemaach Klass Ongläichgewiicht ze korrigéieren20,21.
Fir de Léierprozess besser ze visualiséieren, goufen Klassenaktivéierungskaarte fir all véier trainéiert Deep Learning Modeller generéiert: Héichqualitativ ResNet152 Modell, Low-Quality ResNet152 Modell, Héich Qualitéit AlexNet Modell, a Low-Quality AlexNet Modell.Klass Aktivéierungskaarte ginn aus den Input convolutional Schichten vun dëse véier Modeller generéiert, an Hëtzt Kaarte ginn generéiert duerch Iwwerlagerung vun Aktivéierungskaarten mat Quellbilder aus den 8 × 8 mm a 6 × 6 mm Validatiounssets22, 23.
R Versioun 4.0.3 gouf fir all statistesch Berechnungen benotzt, a Visualiséierunge goufe mat der ggplot2 Grafikinstrumentbibliothéik erstallt.
Mir gesammelt 347 frontal Biller vum oberflächlechen Kapillärplexus mat 8 \(\mol \)8 mm vun 134 Leit.D'Maschinn huet Signalstäerkt op enger Skala vun 0 bis 10 fir all Biller gemellt (Moyenne = 6,99 ± 2,29).Vun den 347 kritt Biller, war den Duerchschnëttsalter bei der Untersuchung 58,7 ± 14,6 Joer, an 39,2% ware vu männleche Patienten.Vun alle Biller waren 30,8% aus Kaukasier, 32,6% aus Schwaarzen, 30,8% aus Hispanics, 4% vun Asians, an 1,7% vun anere Rennen (Table 1).).D'Altersverdeelung vu Patienten mat OCTA ënnerscheet sech wesentlech ofhängeg vun der Qualitéit vum Bild (p <0.001).De Prozentsaz vu qualitativ héichwäerteg Biller bei jonke Patienten am Alter vun 18-45 Joer war 33,8% am Verglach zu 12,2% vun niddereg-Qualitéit Biller (Table 1).D'Verdeelung vum Status vun diabetescher Retinopathie variéiert och wesentlech an der Bildqualitéit (p <0,017).Ënnert all héichqualitativ Biller war de Prozentsaz vu Patienten mat PDR 18,8% am Verglach zu 38,8% vun all niddereg Qualitéitsbilder (Table 1).
Individuell Bewäertunge vun alle Biller weisen moderéiert bis staark Inter-Rating Zouverlässegkeet tëscht Leit, déi d'Biller liesen (Cohen's gewiicht Kappa = 0,79, 95% CI: 0,76-0,82), an et goufe keng Bildpunkte wou Bewäertunge vu méi wéi 1 ënnerscheeden (Fig. 2A)..D'Signalintensitéit korreléiert wesentlech mat der manueller Score (Pearson Produktmoment Korrelatioun = 0.58, 95% CI 0.51-0.65, p <0.001), awer vill Biller goufen identifizéiert als héich Signalintensitéit awer niddereg manuell Score (Fig. .2B).
Wärend der Ausbildung vun den ResNet152 an AlexNet Architekturen fällt de Cross-Entropie Verloscht op Validatioun an Training iwwer 50 Epochen (Figure 3B, C).D'Genauegkeet vun der Validatioun an der leschter Trainingsepoch ass iwwer 90% fir béid héichqualitativ a geréng Qualitéit Benotzungsfäll.
Empfängerleistungskurven weisen datt de ResNet152 Modell d'Signalkraaft wesentlech méi wéi d'Signalkraaft vun der Maschinn a béid nidderegen an héichqualitativen Benotzungsfäll (p <0.001) iwwerpréift.De ResNet152 Modell iwwerhëlt och d'AlexNet Architektur wesentlech besser (p = 0.005 an p = 0.014 fir niddereg Qualitéit an héich Qualitéit Fäll, respektiv).Déi resultéierend Modeller fir jiddereng vun dësen Aufgaben konnten AUC Wäerter vun 0,99 respektiv 0,97 erreechen, wat wesentlech besser ass wéi déi entspriechend AUC Wäerter vun 0,82 an 0,78 fir de Maschinnsignalstäerktindex oder 0,97 an 0,94 fir AlexNet ..(Fig. 3).Den Ënnerscheed tëscht ResNet an AUC an der Signalstäerkt ass méi héich wann Dir héichqualitativ Biller erkennt, wat zousätzlech Virdeeler beweist fir ResNet fir dës Aufgab ze benotzen.
D'Grafike weisen d'Fäegkeet vun all onofhängege Bewäerter fir ze scoren an ze vergläichen mat der Signalstäerkt, déi vun der Maschinn gemellt gëtt.(A) D'Zomm vun de Punkte fir ze bewäerten gëtt benotzt fir d'Gesamtzuel vun de Punkten ze bewäerten.Biller mat engem globale Skalierbarkeet Score vun 4 ginn héich Qualitéit zougewisen, während Biller mat engem Gesamt Skalierbarkeet Score vun 1 oder manner niddereg Qualitéit zougewisen ginn.(B) Signalintensitéit korreléiert mat manuelle Schätzungen, awer Biller mat héijer Signalintensitéit kënne vu méi schlechter Qualitéit sinn.Déi rout Punktelinn weist den empfohlene Qualitéitsschwelle vum Hiersteller op Basis vun der Signalstäerkt (Signalstäerkt \(\ge\)6).
ResNet Transfer Léieren liwwert eng bedeitend Verbesserung vun der Bildqualitéit Identifikatioun fir béid niddereg Qualitéit an héich Qualitéit Benotzungsfäll am Verglach mat Maschinn gemellt Signalniveauen.(A) Vereinfacht Architektur Diagrammer vun pre-trainéiert (ech) ResNet152 an (ii) AlexNet Architekturen.(B) Trainingsgeschicht an Empfängerleistungskurven fir ResNet152 am Verglach mat Maschinn gemellt Signalstäerkt an AlexNet niddereg Qualitéitskriterien.(C) ResNet152 Receiver Training Geschicht a Leeschtung Kéieren Verglach mat Maschinn gemellt Signal Stäerkt an AlexNet héich Qualitéit Critèren.
No der Upassung vun der Entscheedungsgrenzschwell ass d'maximal Prévisiounsgenauegkeet vum ResNet152 Modell 95,3% fir den nidderegen Qualitéitsfall an 93,5% fir den Héichqualitéitsfall (Table 2).Déi maximal Prévisiounsgenauegkeet vum AlexNet Modell ass 91,0% fir de niddereg Qualitéitsfall an 90,1% fir den Héichqualitéitsfall (Table 2).Déi maximal Signalstäerkt Prädiktiounsgenauegkeet ass 76,1% fir den nidderegen Qualitéits Benotzungsfall an 77,8% fir den héichqualitativen Benotzungsfall.Laut dem Cohen säi Kappa (\(\kappa\)) ass den Accord tëscht dem ResNet152 Modell an den Estimatoren 0,90 fir den nidderegen Qualitéitsfall an 0,81 fir den Héichqualitéitsfall.Dem Cohen säin AlexNet Kappa ass 0.82 an 0.71 fir niddereg Qualitéit an héich Qualitéit Benotzungsfäll, respektiv.Dem Cohen seng Signalstäerkt Kappa ass 0,52 an 0,27 fir déi niddereg an héich Qualitéits Benotzungsfäll, respektiv.
Validatioun vun héich- a geréng Qualitéitserkennungsmodeller op 6\(\x\) Biller vun enger 6 mm flacher Plack weist d'Fäegkeet vum trainéierte Modell fir d'Bildqualitéit iwwer verschidde Bildparameter ze bestëmmen.Wann Dir 6\(\x\) 6 mm flächeg Placke fir Bildqualitéit benotzt, hat de niddereg Qualitéitsmodell en AUC vun 0,83 (95% CI: 0,69-0,98) an den Héichqualitéitsmodell hat en AUC vun 0,85.(95% CI: 0,55-1,00) (Table 2).
Visuell Inspektioun vun der Input Layer Klass Aktivéierungskaarten gewisen, datt all trainéiert neural Netzwierker Bild Fonctiounen während Bild Klassifikatioun benotzt (Fig. 4A, B).Fir 8 \(\mol \) 8 mm a 6 \(\mol \) 6 mm Biller, verfollegen d'ResNet Aktivéierungsbiller no der Netzhaut-Vaskulatur.AlexNet Aktivéierungskaarten verfollegen och Netzhautgefässer, awer mat méi gréisser Opléisung.
D'Klassaktivéierungskaarte fir d'ResNet152 an AlexNet Modeller markéieren Features am Zesummenhang mat der Bildqualitéit.(A) Klass Aktivéierungskaart déi kohärent Aktivatioun no iwwerflächlech Netzhaut-Vaskulatur op 8 \(\mol \) 8 mm Validatiounsbilder an (B) Ausmooss op méi kleng 6 \(\mol \) 6 mm Validatiounsbilder.LQ Modell trainéiert op niddereg Qualitéit Critèren, HQ Modell trainéiert op héich Qualitéit Critèren.
Et gouf virdru gewisen datt d'Bildqualitéit all Quantifizéierung vun OCTA Biller staark beaflosse kann.Zousätzlech erhéicht d'Präsenz vun der Retinopathie d'Heefegkeet vu Bildartefakt7,26.Tatsächlech, an eisen Donnéeën, konsequent mat fréiere Studien, hu mir e wesentlechen Associatioun tëscht der Erhéijung vum Alter an der Gravitéit vun der Netzhauterkrankheet an der Verschlechterung vun der Bildqualitéit fonnt (p <0,001, p = 0,017 fir Alter an DR Status, respektiv; Table 1) 27 Dofir ass et kritesch d'Bildqualitéit ze bewäerten ier Dir eng quantitativ Analyse vun OCTA Biller ausféiert.Déi meescht Studien, déi OCTA-Biller analyséieren, benotzen Maschinn-rapportéiert Signalintensitéit-Schwellen fir niddereg Qualitéitsbilder auszeschléissen.Och wann d'Signalintensitéit gewise gouf fir d'Quantifizéierung vun den OCTA-Parameteren ze beaflossen, héich Signalintensitéit eleng ass vläicht net genuch fir Biller mat Bildartefakte2,3,28,29 auszeschléissen.Dofir ass et néideg eng méi zouverlässeg Method fir Bildqualitéitskontroll z'entwéckelen.Zu dësem Zweck evaluéiere mir d'Leeschtung vun iwwerwaachte Deep Léiermethoden géint d'Signalstäerkt, déi vun der Maschinn gemellt gëtt.
Mir hunn e puer Modeller entwéckelt fir d'Bildqualitéit ze evaluéieren well verschidde OCTA Benotzungsfäll verschidde Bildqualitéit Ufuerderunge kënnen hunn.Zum Beispill solle Biller vu méi héijer Qualitéit sinn.Zousätzlech sinn spezifesch quantitativ Parameteren vun Interesse och wichteg.Zum Beispill hänkt d'Gebitt vun der fovealer avaskulärer Zone net vun der Turbiditéit vum net-zentrale Medium of, awer beaflosst d'Dicht vun de Schëffer.Wärend eis Fuerschung weider op eng allgemeng Approche fir d'Bildqualitéit konzentréiert, net un d'Ufuerderunge vun engem bestëmmten Test gebonnen, awer virgesi fir d'Signalstäerkt direkt vun der Maschinn ze ersetzen, hoffen mir d'Benotzer e gréissere Grad vu Kontroll ze ginn, sou datt se kann déi spezifesch Metrik vun Interesse fir de Benotzer auswielen.wielt e Modell, datt dem Maximum Grad vun Bild artifacts entsprécht akzeptabel considéréiert.
Fir niddereg-Qualitéit an héich-Qualitéit Szenen, weisen mir excellent Leeschtung vun Verbindung-fehlend déif convolutional neural Netzwierker, mat AUCs vun 0,97 an 0,99 a niddereg-Qualitéit Modeller, respektiv.Mir weisen och déi super Leeschtung vun eiser Deep Learning Approche am Verglach mat Signalniveauen, déi nëmme vu Maschinnen gemellt ginn.Skipverbindungen erlaben neural Netzwierker Features op multiple Detailniveauen ze léieren, méi fein Aspekter vu Biller erfaassen (zB Kontrast) souwéi allgemeng Features (zB Bildzenteréierung30,31).Zënter Bildartefakte, déi d'Bildqualitéit beaflossen, wahrscheinlech am beschten iwwer eng breet Palette identifizéiert ginn, kënnen neural Netzwierkarchitekturen mat fehlende Verbindunge besser Leeschtung weisen wéi déi ouni Bildqualitéitbestëmmungsaufgaben.
Wann Dir eise Modell op 6\(\×6mm) OCTA Biller testen, hu mir eng Ofsenkung vun der Klassifizéierungsleistung fir héichqualitativ a niddereg Qualitéitsmodeller (Fig. 2) gemierkt, am Géigesaz zu der Gréisst vum Modell, dee fir d'Klassifikatioun trainéiert gëtt.Am Verglach zum ResNet Modell huet den AlexNet Modell e gréissere Falloff.Déi relativ besser Leeschtung vu ResNet kann wéinst der Fäegkeet vun de Reschtverbindunge sinn fir Informatioun op verschidde Skalen ze vermëttelen, wat de Modell méi robust mécht fir Biller ze klassifizéieren, déi a verschiddene Skalen an / oder Vergréisserungen ageholl goufen.
E puer Differenzen tëscht 8 \(\×\) 8 mm Biller a 6 \(\×\) 6 mm Biller kënnen zu enger schlechter Klassifikatioun féieren, dorënner e relativ héijen Undeel vu Biller, déi foveal avaskulär Gebidder enthalen, Ännerungen an der Visibilitéit, vaskuläre Arkaden, an keen Optiknerv op d'Bild 6 × 6 mm.Trotzdem konnt eisen héichqualitativen ResNet Modell en AUC vun 85% fir 6 \(\x\) 6 mm Biller erreechen, eng Konfiguratioun fir déi de Modell net trainéiert gouf, wat suggeréiert datt d'Bildqualitéitsinformatioun am neurale Netzwierk kodéiert ass. ass gëeegent.fir eng Bild Gréisst oder Maschinn Configuratioun ausserhalb senger Formatioun (Table 2).Berouegend, ResNet- an AlexNet-ähnlech Aktivéierungskaarte vun 8 \(\mol \) 8 mm a 6 \(\mol \) 6 mm Biller konnten d'Netzhautgefässer a béide Fäll Highlight, wat suggeréiert datt de Modell wichteg Informatioun huet.sinn applicabel fir Klassifikatioun souwuel Zorte vun OCTA Biller (Fig. 4).
Lauermann et al.Bildqualitéit Bewäertung op OCTA Biller gouf ähnlech mat der Inception Architektur gemaach, en anert Skip-Connection convolutional neural Network6,32 mat Deep Learning Techniken.Si hunn och d'Studie limitéiert op Biller vum iwwerflächleche Kapillärplexus, awer nëmmen déi méi kleng 3 × 3 mm Biller vun Optovue AngioVue benotzt, obwuel och Patienten mat verschiddene Chorioretinalerkrankungen abegraff waren.Eis Aarbecht baut op hir Fundamenter, dorënner verschidde Modeller fir verschidde Bildqualitéitsschwellen unzegoen an d'Resultater fir Biller vu verschiddene Gréissten ze validéieren.Mir berichten och d'AUC Metrik vu Maschinnléiere Modeller an erhéijen hir scho beandrockend Genauegkeet (90%)6 fir béid niddereg Qualitéit (96%) an héich Qualitéit (95.7%) Modeller6.
Dës Formatioun huet verschidde Aschränkungen.Als éischt goufen d'Biller mat nëmmen enger OCTA Maschinn erfaasst, dorënner nëmmen Biller vum iwwerflächleche Kapillarplexus bei 8\(\x\)8 mm a 6\(\x\)6 mm.De Grond fir Biller aus méi déif Schichten auszeschléissen ass datt Projektiounsartefakte manuell Evaluatioun vu Biller méi schwéier a méiglecherweis manner konsequent maachen.Ausserdeem goufen d'Biller nëmme bei Diabetispatienten erfaasst, fir déi OCTA als e wichtegt diagnostescht a prognostescht Tool entstinn33,34.Och wa mir fäeg waren eise Modell op Biller vu verschiddene Gréissten ze testen fir sécherzestellen datt d'Resultater robust waren, konnte mir net gëeegent Datesätz aus verschiddenen Zentren identifizéieren, wat eis Bewäertung vun der Generaliséierbarkeet vum Modell limitéiert huet.Obwuel d'Biller vun nëmmen engem Zentrum kritt goufen, goufen se aus Patienten vun verschiddenen ethneschen a rasseschen Hannergrënn kritt, déi eng eenzegaarteg Stäerkt vun eiser Etude ass.Andeems mir Diversitéit an eisem Trainingsprozess enthalen, hoffe mir datt eis Resultater an engem méi breede Sënn generaliséiert ginn an datt mir d'Kodéierung vu rassistesche Viraussetzungen an de Modeller déi mir trainéieren vermeiden.
Eis Etude weist datt d'Verbindungs-Sprangen neural Netzwierker trainéiert kënne ginn fir héich Leeschtung ze erreechen bei der Bestëmmung vun der OCTA Bildqualitéit.Mir bidden dës Modeller als Tools fir weider Fuerschung.Well verschidde Metriken ënnerschiddlech Bildqualitéit Ufuerderunge kënnen hunn, kann en individuellen Qualitéitskontrollmodell fir all Metrik entwéckelt ginn mat der Struktur déi hei etabléiert ass.
Zukünfteg Fuerschung soll Biller vu verschiddene Gréissten aus verschiddenen Déiften a verschiddenen OCTA Maschinnen enthalen fir en déif Léieren Bildqualitéit Evaluatiounsprozess ze kréien, deen op OCTA Plattformen an Imaging Protokoller generaliséiert ka ginn.Aktuell Fuerschung baséiert och op iwwerwaachte Deep Learning Approche déi mënschlech Evaluatioun a Bildbewäertung erfuerderen, wat Aarbechtsintensiv an Zäitopwendeg fir grouss Datesätz ka sinn.Et bleift ze gesinn ob net iwwerwaacht Deep Learning Methoden adequat tëscht niddereg Qualitéitsbilder an héichqualitativ Biller ënnerscheeden.
Wéi d'OCTA Technologie weider evoluéiert an d'Scannergeschwindegkeet eropgeet, kann d'Heefegkeet vu Bildartefakte a schlecht Qualitéitsbilder erofgoen.Verbesserungen an der Software, sou wéi déi kierzlech agefouert Projektiounsartefaktentfernungsfunktioun, kënnen och dës Aschränkungen erliichteren.Wéi och ëmmer, vill Probleemer bleiwen als Imaging vu Patienten mat enger schlechter Fixatioun oder bedeitender Medienturbiditéit ëmmer zu Bildartefakte resultéiert.Wéi OCTA méi wäit an de klineschen Studien benotzt gëtt, ass suergfälteg Iwwerleeung gebraucht fir kloer Richtlinnen fir akzeptabel Bildartefaktniveauen fir Bildanalyse ze etabléieren.D'Applikatioun vun Deep Learning Methoden op OCTA Biller hält grouss Verspriechen a weider Fuerschung ass an dësem Beräich gebraucht fir eng robust Approche fir Bildqualitéitskontroll z'entwéckelen.
De Code deen an der aktueller Fuerschung benotzt gëtt ass verfügbar am octa-qc Repository, https://github.com/rahuldhodapkar/octa-qc.Datesets generéiert an / oder analyséiert während der aktueller Etude si vun den jeweilegen Autoren op raisonnabel Ufro verfügbar.
Spaide, RF, Fujimoto, JG, & Waheed, NK.Netzhaut 35, 2163-2180 (2015).
Fenner, BJ et al.Identifikatioun vun Imaging Features, déi d'Qualitéit an d'Reproduzibilitéit vun den Netzhaut-Kapillar-Plexus-Dichtmiessungen an der OCT-Angiographie bestëmmen.BR.J. Ophthalmol.102, 509-514 (2018).
Lauerman, JL et al.Afloss vun Auge-Tracking Technologie op d'Bildqualitéit vun der OCT Angiographie an der altersbedingter Makuladegeneratioun.Graf arch.klinesch.Exp.ophthalmologie.255, 1535–1542 (2017).
Babyuch AS et al.OCTA Kapillär Perfusiounsdichtmiessunge gi benotzt fir makulär Ischämie z'entdecken an ze evaluéieren.ophthalmic Chirurgie.Netzhaut Laser Imaging 51, S30–S36 (2020).
He, K., Zhang, X., Ren, S., and Sun, J. Deep Residual Learning for Image Recognition.Am 2016 op der IEEE Konferenz iwwer Computer Visioun a Mustererkennung (2016).
Lauerman, JL et al.Automatiséiert OCT angiographesch Bildqualitéit Bewäertung mat Deep Learning Algorithmen.Graf arch.klinesch.Exp.ophthalmologie.257, 1641–1648 (2019).
Lauermann, J. et al.D’Prévalence vu Segmentéierungsfehler a Bewegungsartefakte bei der OCT Angiographie hänkt vun der Krankheet vun der Netzhaut of.Graf arch.klinesch.Exp.ophthalmologie.256, 1807–1816 (2018).
Pasch, Adam et al.Pytorch: Eng Imperativ, High-Performance Deep Learning Library.Fortgeschratt Veraarbechtung vun neuralen Informatioun.System.32, 8026–8037 (2019).
Deng, J. et al.ImageNet: Eng grouss Skala Hierarchesch Bild Datebank.2009 IEEE Konferenz iwwer Computer Visioun a Mustererkennung.248-255.(2009).
Krizhevsky A., Sutzkever I. an Hinton GE Imagenet Klassifikatioun mat deep convolutional neural Netzwierker.Fortgeschratt Veraarbechtung vun neuralen Informatioun.System.Eng., 25, 1 (2012).


Post Zäit: Mee-30-2023
  • wechat
  • wechat