{rfName}
FG

Llicència i ús

Icono OpenAccess

Altmetrics

Anàlisi d'autories institucional

Rashwan HaAutor o coautorAbdulwahab SAutor o coautorAbdel-Nasser MAutor o coautorPuig DAutor o coautor

Compartir

30 d’octubre de 2023
Publicacions
>
Article

FGR-Net: Interpretable fundus image gradeability classification based on deep reconstruction learning

Publicat a: Expert Systems With Applications. 238 121644- - 2024-03-15 238(), DOI: 10.1016/j.eswa.2023.121644

Autors:

Khalid, S; Rashwan, HA; Abdulwahab, S; Abdel-Nasser, M; Quiroga, FM; Puig, D
[+]

Afiliacions

Aswan Univ, Dept Elect Engn, Aswan 81528, Egypt - Autor o coautor
Aswan University , Universitat Rovira i Virgili - Autor o coautor
Facultad de Informatica, Universidad Nacional de La Plata - Autor o coautor
Rovira & Virgili Univ, Dept Comp Engn & Math, Tarragona, Spain - Autor o coautor
Univ Al Qadisiyah, Al Diwaniyah 58002, Iraq - Autor o coautor
Univ Nacl La Plata, Fac Informat, Inst Invest Informat LIDI, La Plata, Buenos Aires, Argentina - Autor o coautor
Universitat Rovira i Virgili - Autor o coautor
University of Al-Qadisiyah , Universitat Rovira i Virgili - Autor o coautor
Veure més

Resum

The performance of diagnostic Computer-Aided Design (CAD) systems for retinal diseases depends on the quality of the retinal images being screened. Thus, many studies have been developed to evaluate and assess the quality of such retinal images. However, most of them did not investigate the relationship between the accuracy of the developed models and the quality of the visualization of interpretability methods for distinguishing between gradable and non-gradable retinal images. Consequently, this paper presents a novel framework called “FGR-Net” to automatically assess and interpret underlying fundus image quality by merging an autoencoder network with a classifier network. The FGR-Net model also provides an interpretable quality assessment through visualizations. In particular, FGR-Net uses a deep autoencoder to reconstruct the input image in order to extract the visual characteristics of the input fundus images based on self-supervised learning. The extracted features by the autoencoder are then fed into a deep classifier network to distinguish between gradable and ungradable fundus images. FGR-Net is evaluated with different interpretability methods, which indicates that the autoencoder is a key factor in forcing the classifier to focus on the relevant structures of the fundus images, such as the fovea, optic disk, and prominent blood vessels. Additionally, the interpretability methods can provide visual feedback for ophthalmologists to understand how our model evaluates the quality of fundus images. The experimental results showed the superiority of FGR-Net over the state-of-the-art quality assessment methods, with an accuracy of >89% and an F1-score of >87%. The code is publicly available at https://github.com/saifalkh/FGR-Net.
[+]

Paraules clau

autoencoder networkdeep learningdiabetic-retinopathyexplainabilitygradabilityintepretabilityocular diseasesquality assessmentsegmentationAutoencoder networkDeep learningExplainabilityGradabilityIntepretabilityNeural-network modelOcular diseasesQuality assessmentRetinal image

Indicis de qualitat

Impacte bibliomètric. Anàlisi de la contribució i canal de difusió

El treball ha estat publicat a la revista EXPERT SYSTEMS WITH APPLICATIONS a causa de la seva progressió i el bon impacte que ha aconseguit en els últims anys, segons l'agència WoS (JCR), s'ha convertit en una referència en el seu camp. A l'any de publicació del treball, 2024 encara no hi ha indicis calculats, però el 2023, es trobava a la posició 7/106, aconseguint així situar-se com a revista Q1 (Primer Cuartil), en la categoria Operations Research & Management Science. Destacable, igualment, el fet que la revista està posicionada per sobre del Percentil 90.

Independentment de l'impacte esperat determinat pel canal de difusió, és important destacar l'impacte real observat de la pròpia aportació.

Segons les diferents agències d'indexació, el nombre de citacions acumulades per aquesta publicació fins a la data 2026-04-03:

  • Google Scholar: 8
  • WoS: 9
  • Scopus: 16
[+]

Impacte i visibilitat social

Des de la dimensió d'influència o adopció social, i prenent com a base les mètriques associades a les mencions i interaccions proporcionades per agències especialitzades en el càlcul de les denominades "Mètriques Alternatives o Socials", podem destacar a data 2026-04-03:

  • L'ús d'aquesta aportació en marcadors, bifurcacions de codi, afegits a llistes de favorits per a una lectura recurrent, així com visualitzacions generals, indica que algú està fent servir la publicació com a base del seu treball actual. Això pot ser un indicador destacat de futures cites més formals i acadèmiques. Aquesta afirmació està avalada pel resultat de l'indicador "Capture", que aporta un total de: 22 (PlumX).

És fonamental presentar evidències que recolzin l'alineació plena amb els principis i directrius institucionals sobre Ciència Oberta i la Conservació i Difusió del Patrimoni Intel·lectual. Un clar exemple d'això és:

  • El treball s'ha enviat a una revista la política editorial de la qual permet la publicació en obert Open Access.
  • Assignació d'un Handle/URN com a identificador dins del Dipòsit en el Repositori Institucional: http://hdl.handle.net/20.500.11797/imarina9331246
[+]

Anàlisi del lideratge dels autors institucionals

Aquest treball s'ha realitzat amb col·laboració internacional, concretament amb investigadors de: Argentina; Egypt; Iraq.

Hi ha un lideratge significatiu, ja que alguns dels autors pertanyents a la institució apareixen com a primer o últim signant, es pot apreciar en el detall: Primer Autor (Khalid S) i Últim Autor (Puig Valls, Domènec Savi).

[+]