{rfName}
FG

Licencia y uso

Icono OpenAccess

Altmetrics

Investigadores/as Institucionales

Rashwan HaAutor o CoautorAbdulwahab SAutor o CoautorAbdel-Nasser MAutor o CoautorPuig DAutor o Coautor

Compartir

30 de octubre de 2023
Publicaciones
>
Artículo

FGR-Net: Interpretable fundus image gradeability classification based on deep reconstruction learning

Publicado en: Expert Systems With Applications. 238 121644- - 2024-03-15 238(), DOI: 10.1016/j.eswa.2023.121644

Autores:

Khalid, S; Rashwan, HA; Abdulwahab, S; Abdel-Nasser, M; Quiroga, FM; Puig, D
[+]

Afiliaciones

Aswan Univ, Dept Elect Engn, Aswan 81528, Egypt - Autor o Coautor
Aswan University , Universitat Rovira i Virgili - Autor o Coautor
Facultad de Informatica, Universidad Nacional de La Plata - Autor o Coautor
Rovira & Virgili Univ, Dept Comp Engn & Math, Tarragona, Spain - Autor o Coautor
Univ Al Qadisiyah, Al Diwaniyah 58002, Iraq - Autor o Coautor
Univ Nacl La Plata, Fac Informat, Inst Invest Informat LIDI, La Plata, Buenos Aires, Argentina - Autor o Coautor
Universitat Rovira i Virgili - Autor o Coautor
University of Al-Qadisiyah , Universitat Rovira i Virgili - Autor o Coautor
Ver más

Resumen

The performance of diagnostic Computer-Aided Design (CAD) systems for retinal diseases depends on the quality of the retinal images being screened. Thus, many studies have been developed to evaluate and assess the quality of such retinal images. However, most of them did not investigate the relationship between the accuracy of the developed models and the quality of the visualization of interpretability methods for distinguishing between gradable and non-gradable retinal images. Consequently, this paper presents a novel framework called “FGR-Net” to automatically assess and interpret underlying fundus image quality by merging an autoencoder network with a classifier network. The FGR-Net model also provides an interpretable quality assessment through visualizations. In particular, FGR-Net uses a deep autoencoder to reconstruct the input image in order to extract the visual characteristics of the input fundus images based on self-supervised learning. The extracted features by the autoencoder are then fed into a deep classifier network to distinguish between gradable and ungradable fundus images. FGR-Net is evaluated with different interpretability methods, which indicates that the autoencoder is a key factor in forcing the classifier to focus on the relevant structures of the fundus images, such as the fovea, optic disk, and prominent blood vessels. Additionally, the interpretability methods can provide visual feedback for ophthalmologists to understand how our model evaluates the quality of fundus images. The experimental results showed the superiority of FGR-Net over the state-of-the-art quality assessment methods, with an accuracy of >89% and an F1-score of >87%. The code is publicly available at https://github.com/saifalkh/FGR-Net.
[+]

Palabras clave

autoencoder networkdeep learningdiabetic-retinopathyexplainabilitygradabilityintepretabilityocular diseasesquality assessmentsegmentationAutoencoder networkDeep learningExplainabilityGradabilityIntepretabilityNeural-network modelOcular diseasesQuality assessmentRetinal image

Indicios de calidad

Impacto bibliométrico. Análisis de la aportación y canal de difusión

El trabajo ha sido publicado en la revista EXPERT SYSTEMS WITH APPLICATIONS debido a la progresión y el buen impacto que ha alcanzado en los últimos años, según la agencia WoS (JCR), se ha convertido en una referencia en su campo. En el año de publicación del trabajo, 2024 aún no existen indicios calculados, pero en 2023, se encontraba en la posición 7/106, consiguiendo con ello situarse como revista Q1 (Primer Cuartil), en la categoría Operations Research & Management Science. Destacable, igualmente, el hecho de que la Revista está posicionada por encima del Percentil 90.

Independientemente del impacto esperado determinado por el canal de difusión, es importante destacar el impacto real observado de la propia aportación.

Según las diferentes agencias de indexación, el número de citas acumuladas por esta publicación hasta la fecha 2026-04-03:

  • Google Scholar: 8
  • WoS: 9
  • Scopus: 16
[+]

Impacto y visibilidad social

Desde la dimensión de Influencia o adopción social, y tomando como base las métricas asociadas a las menciones e interacciones proporcionadas por agencias especializadas en el cálculo de las denominadas “Métricas Alternativas o Sociales”, podemos destacar a fecha 2026-04-03:

  • La utilización de esta aportación en marcadores, bifurcaciones de código, añadidos a listas de favoritos para una lectura recurrente, así como visualizaciones generales, indica que alguien está usando la publicación como base de su trabajo actual. Esto puede ser un indicador destacado de futuras citas más formales y académicas. Tal afirmación es avalada por el resultado del indicador “Capture” que arroja un total de: 22 (PlumX).

Es fundamental presentar evidencias que respalden la plena alineación con los principios y directrices institucionales en torno a la Ciencia Abierta y la Conservación y Difusión del Patrimonio Intelectual. Un claro ejemplo de ello es:

  • El trabajo se ha enviado a una revista cuya política editorial permite la publicación en abierto Open Access.
  • Asignación de un Handle/URN como identificador dentro del Depósito en el Repositorio Institucional: http://hdl.handle.net/20.500.11797/imarina9331246
[+]

Análisis de liderazgo de los autores institucionales

Este trabajo se ha realizado con colaboración internacional, concretamente con investigadores de: Argentina; Egypt; Iraq.

Existe un liderazgo significativo ya que algunos de los autores pertenecientes a la institución aparecen como primer o último firmante, se puede apreciar en el detalle: Primer Autor (Khalid S) y Último Autor (Puig Valls, Domènec Savi).

[+]