Enfoque de aprendizaje automático interpretable para neurona

Blog

HogarHogar / Blog / Enfoque de aprendizaje automático interpretable para neurona

Nov 20, 2023

Enfoque de aprendizaje automático interpretable para neurona

Informes científicos volumen 13,

Scientific Reports volumen 13, Número de artículo: 5567 (2023) Citar este artículo

861 Accesos

2 Altmetric

Detalles de métricas

La complejidad de la corteza cerebral subyace a su función y nos distingue como humanos. Aquí, presentamos una metodología de ciencia de datos verídica basada en principios para la histología cuantitativa que cambia el enfoque de las investigaciones a nivel de imagen hacia las representaciones a nivel de neuronas de las regiones corticales, con las neuronas en la imagen como tema de estudio, en lugar del contenido de la imagen en píxeles. Nuestra metodología se basa en la segmentación automática de neuronas en secciones histológicas completas y un amplio conjunto de características diseñadas, que reflejan el fenotipo neuronal de las neuronas individuales y las propiedades de los vecindarios de las neuronas. Las representaciones a nivel de neuronas se utilizan en una canalización de aprendizaje automático interpretable para mapear el fenotipo en capas corticales. Para validar nuestro enfoque, creamos un conjunto de datos único de capas corticales anotadas manualmente por tres expertos en neuroanatomía e histología. La metodología presentada ofrece una alta interpretabilidad de los resultados, proporcionando una comprensión más profunda de la organización de la corteza cerebral humana, lo que puede ayudar a formular nuevas hipótesis científicas, así como a hacer frente a la incertidumbre sistemática en los datos y las predicciones del modelo.

La corteza cerebral humana es una estructura compleja y altamente organizada compuesta por miles de millones de neuronas. Una de las características más destacadas de la corteza cerebral humana son las capas corticales: estructuras laminares paralelas a la superficie del hemisferio cerebral y superpuestas unas sobre otras. Esta estructura en capas es causada por variaciones en la densidad celular, el tamaño y la forma de las neuronas, específicas para cada capa cortical. Toda la corteza cerebral se puede subdividir, según el número de capas, en una neocorteza (o isocorteza) de seis capas y una alocorteza, que a su vez se puede subdividir en una paleocorteza de dos capas, una arquicorteza de tres capas y, por lo general, una mesocorteza de cinco capas. . Hoy en día, la clasificación más utilizada de las capas neocorticales se basa en el concepto desarrollado por Korbinian Brodmann a principios del siglo XX1. En esta clasificación, el neocórtex se compone de seis capas diferenciadas por características neuronales como el tipo neuronal, el número, el tamaño, la forma, la densidad, etc. En la neocorteza genérica, los investigadores diferían significativamente en la descripción del número de capas que van de cuatro a siete. Por lo tanto, podemos inferir que las capas corticales, aunque son características biológicas de la corteza cerebral, están delimitadas por criterios arbitrarios desarrollados por observadores humanos. Además, la composición, el tamaño y el número de capas no son constantes en toda la corteza cerebral. Según las variaciones de estas características citoarquitectónicas, la corteza cerebral se puede dividir en áreas citoarquitectónicas corticales más pequeñas. A principios del siglo XX, los investigadores en el campo de la citoarquitectónica (es decir, el estudio del plan de construcción cortical) desarrollaron varios mapas citoarquitectónicos que dividían la corteza cerebral en unidades estructurales más pequeñas, siendo dos de los más influyentes uno desarrollado por Brodmann1,2 y el otro por von Economo y Koskinas3. Para cada área citoarquitectónica, se puede definir un conjunto claro de características que las distingue de otras áreas. Sin embargo, los límites entre dos áreas no siempre son claros, sino que son, más bien, un área de transición con cambios graduales de una a otra. En estas partes en transición, a menudo es difícil para el observador humano delinear con precisión y consistencia tanto las áreas corticales como las láminas dentro de las áreas. El interés en el análisis de estas estructuras está impulsado por la evidencia de la relación entre las características de la estructura citoarquitectónica y las funciones corticales. Hoy en día, se cree que la forma en que se distribuyen las neuronas en el cerebro determina su función. Las sutilezas de esta fina estructura del cerebro que subyace a su función se pueden caracterizar con gran detalle mediante el estudio de la organización de las células a lo largo de la corteza4. Sin embargo, las investigaciones en este campo se realizan en su mayoría de forma manual, requieren una cantidad significativa de tiempo de los investigadores, introducen sesgos dependientes del observador y dificultan la reproducibilidad de la investigación5. A medida que avanza la tecnología, se dispone de más y más datos histológicos digitalizados. Los métodos asistidos por computadora proporcionan medios para investigaciones más rápidas, más objetivas y de mayor rendimiento de las estructuras corticales a través del procesamiento automatizado de secciones histológicas de la corteza. Esto permite a los investigadores responder a varias preguntas científicas mediante una mejor comprensión de la organización anatómica y funcional del cerebro, así como la observación de cambios sutiles en las estructuras cerebrales causados ​​por enfermedades neurológicas y psiquiátricas.

Desde los primeros métodos que introdujeron la automatización en el análisis de las capas corticales, la idea central fue la toma de muestras de diferentes medidas de tejido a lo largo de líneas transversales trazadas manual o semiautomáticamente a través de la corteza, perpendiculares a la estructura laminar y que abarcaban todo el ancho de la corteza. la corteza6,7,8,9. Un paso importante fue el desarrollo del índice de nivel de gris (GLI)10, un método que mide fracciones de área de cuerpos celulares teñidos de oscuro a lo largo de la corteza, produciendo diferentes perfiles de densidad de neuronas dependiendo de la ubicación de interés e identifica posiciones en la cinta cortical donde las características citoarquitectónicas cambian11. Los bloques de perfiles adyacentes pueden representarse mediante vectores de características y compararse entre áreas de la corteza. Las características del perfil se utilizaron para la estimación de recuentos de células entre áreas corticales, lo que proporcionó información realista sobre la densidad neuronal12. Los niveles más altos de automatización permitieron un análisis más rápido de conjuntos de datos más grandes. El BigBrain es un atlas digital en 3D de alta resolución de todo el cerebro humano, que proporciona enormes cantidades de datos histológicos de alta resolución para estudios neuroanatómicos13. Los perfiles de GLI se combinaron con métodos de aprendizaje automático para crear una segmentación laminar en el conjunto de datos de BigBrain, creando parcelaciones en grandes áreas del cerebro14,15. Las capas corticales también se segmentaron utilizando redes neuronales convolucionales16, y se proporciona una comparación con el enfoque GLI17. El primer artículo que utiliza características y estadísticas de neuronas individuales apareció en 2017, donde los autores utilizaron la segmentación automática de células en el cerebro del ratón y analizaron estadísticas de forma celular sin modelos de aprendizaje automático18. En el año 2018 se propuso el primer enfoque que no utiliza perfiles a través de la corteza19. Se utilizó un enfoque combinado de aprendizaje automático no supervisado y supervisado en un conjunto de datos de imágenes microscópicas de 2 fotones de la corteza de rata. Se puede observar la transición hacia la automatización, el análisis de conjuntos de datos más grandes y el uso de métodos de aprendizaje automático en el campo que hasta hace poco estuvo dominado por el uso de técnicas clásicas de procesamiento de imágenes que utilizan varios filtros, transformaciones de píxeles en toda la imagen, umbrales y similares. operaciones.

Los métodos basados ​​en el aprendizaje automático se basan en un conjunto de datos de entrenamiento para desarrollar sus capacidades predictivas, lo que les permite generalizar y hacer predicciones sobre datos no vistos. En este contexto, los datos ocultos se refieren a porciones de tejido que no han sido delineadas o etiquetadas manualmente por investigadores humanos. En el aprendizaje automático, este enfoque se conoce como aprendizaje supervisado, a veces también denominado modelado predictivo. Tener datos de aprendizaje adecuados es esencial para desarrollar modelos exitosos, y las etiquetas humanas se consideran el estándar de oro. Sin embargo, a lo largo de los años, el impacto del sesgo humano en la parcelación del cerebro se ha reconocido cada vez más y se han buscado muchos métodos para superar este problema mediante el desarrollo de medidas cuantitativas objetivas y el uso de estadísticas para distinguir entre diferentes capas y áreas del cerebro20. En un artículo reciente21, los autores utilizan estimaciones de la densidad neuronal para inferir la conectividad neuronal local mientras abordan el problema del sesgo humano en la segmentación manual de las capas corticales y utilizan un enfoque de agrupamiento no supervisado para identificar y representar la estructura laminar. Un aspecto importante a considerar en el análisis de imágenes del cerebro humano, o imágenes biomédicas en general, es hasta qué punto los sistemas automatizados deben recrear el trabajo de investigadores humanos. Los sistemas de visión por computadora pueden dar acceso a contenidos de imágenes subyacentes que no son visibles, procesar cada imagen por igual y proporcionar una automatización parcial o completa del proceso22, especialmente en lo que respecta a las cantidades masivas de datos multimodales y de alta resolución recientemente disponibles, mucho más allá de las capacidades de cualquier tipo de análisis manual. Dichos sistemas pueden derivar y analizar información anatómica y biológicamente significativa detallada a gran escala y revelar principios de estructuración actualmente ignorados y proporcionar una comprensión más profunda de la estructura laminar. Esto sugiere que existe la necesidad de ir más allá de las limitaciones de la parcelación creada manualmente en los atlas convencionales hacia el análisis basado en datos. Idealmente, una representación de una sección histológica que contenga información para permitir una clasificación o parcelación objetiva y sin supervisión de capas e incluso revelar subcapas ayudaría a resolver muchos problemas sin respuesta en el estudio de la anatomía y fisiología del cerebro.

En este documento, planteamos la hipótesis de que los métodos actuales no ofrecen tales capacidades debido a su incapacidad para capturar características citoarquitectónicas sutiles. En consecuencia, expresan baja explicabilidad e interpretabilidad de sus resultados. Los métodos basados ​​en profundidad que operan en ventanas que cruzan la imagen pueden proporcionar parcelaciones convincentes, pero no podemos preguntar qué características del tejido conducen a estos resultados. Aquí, investigamos la posibilidad de desarrollar un fenotipado de neuronas23 que capture detalles citoarquitectónicos y pueda usarse para inferir sobre la estructura del cerebro utilizando solo información del tejido local a nivel celular. La utilidad de este enfoque se demuestra a través de la tarea de distinguir las capas corticales clasificando cada neurona dentro de las seis capas corticales y la sustancia blanca mediante un método de aprendizaje automático supervisado. El método utiliza la caracterización del fenotipo como entrada y predice la capa de la neurona individual, ofreciendo de forma nativa un alto nivel de interpretabilidad. También demostramos la capacidad humana para distinguir entre las capas corticales y explorar cómo los métodos basados ​​en el aprendizaje pueden generalizarse a partir de etiquetas tan ruidosas. El marco desarrollado proporciona la capacidad de investigar qué características neuronales son características de diferentes áreas y presenta una perspectiva para futuras investigaciones en el campo de la citoarquitectónica.

Los datos histológicos se obtuvieron de la Colección Neuroembriológica de Zagreb24. Las muestras utilizadas en este estudio se tomaron de la corteza prefrontal de dos cerebros (cerebro 1, mujer de 55 años, retraso post-mortem de 24 horas; cerebro 2, edad no disponible; hombre, retraso post-mortem de 4 horas). Se tomaron secciones de la parte dorsal y ventral de la típica isocorteza homotípica de seis capas de la corteza prefrontal3,4. Los cerebros se fijaron en \(4\%\) PFA durante dos semanas. Después del muestreo, las secciones se deshidrataron a través de una serie de etanol y se incluyeron en parafina. Las secciones se cortaron usando un micrótomo rotatorio a espesores de \(10\;\upmu \hbox {m}\) y \(20\;\upmu \hbox {m}\). El tejido se tiñó utilizando el método de inmunohistoquímica NeuN según el protocolo estándar25. NeuN es una proteína nuclear de unión a ARN, derivada del gen RBFOX3, que regula el empalme alternativo en las neuronas y se expresa explícitamente en todas las neuronas de las muestras de tejido utilizadas. En los experimentos, se usaron secciones \(10\;\upmu \hbox {m}\) y \(20\;\upmu \hbox {m}\) para probar si el grosor del tejido afectaría los resultados. Las secciones histológicas se digitalizaron utilizando el escáner Hamamatsu Nanozoomer 2.0 (Hamamatsu Photonics, Japón) con un aumento de 40x, correspondiente a una resolución de \(0,226\mu \hbox {m/pixel}\). Las secciones histológicas de ejemplo en la Fig. 1 muestran una morfología neuronal y una distribución celular variables en las capas corticales. Los experimentos computacionales se realizaron utilizando scripts personalizados escritos en Python 3.8 y bibliotecas estándar disponibles públicamente.

Cortes histológicos teñidos con el método de inmunohistoquímica NeuN que muestran una morfología neuronal y una distribución celular variables en las capas de la corteza. La imagen de la izquierda se tomó de la parte dorsolateral de la corteza prefrontal (grosor \(10\;\upmu \hbox {m}\)) y la imagen de la derecha se tomó de la parte orbital de la corteza prefrontal (grosor \(20\ ;\upmu\hbox {m}\)). Barra de escala \(100\;\upmu \hbox {m}\).

En la delineación manual, la densidad y el tamaño de las neuronas son las caracterizaciones más importantes de la estructura laminar. Con base en las descripciones anatómicas y las estimaciones de la densidad del grano, se asumen tres poblaciones de densidades similares (las capas II y IV son densas, las capas III, V y VI son promedio, y la capa I y la materia blanca son escasas), dos poblaciones de tamaños similares ( capas III, V y VI que contienen en promedio neuronas más grandes, y capas I, II, IV y sustancia blanca que contienen en promedio neuronas más pequeñas). Al trazar un histograma de densidades y tamaños de neuronas, se puede observar que las características expresan una distribución multimodal, que se puede separar utilizando la minimización de la varianza intraclase26. La Figura 2 muestra una visualización de la separación de las poblaciones de neuronas en la sección histológica, revelando la estructura laminar. En contraste con el enfoque clásico basado en píxeles para la segmentación de la capa cortical, utilizamos descriptores de tejido a nivel de neurona para caracterizar y examinar las propiedades del tejido subyacente. Desarrollamos varias clases de características que describen cada neurona en el tejido y usamos un modelo de aprendizaje automático para determinar la capa de neuronas individuales. Clasificando todas las neuronas del tejido obtenemos la parcelación de la estructura laminar. Según el mejor conocimiento de los autores, este es el primer enfoque de abajo hacia arriba en el análisis de la citoarquitectónica del cerebro que se construye a partir del nivel celular e infiere sobre estructuras más grandes en función de las características morfológicas y texturales de las neuronas individuales. Aquí, discutimos el desarrollo de esas características, así como algunos fundamentos detrás de las elecciones realizadas en su desarrollo y selección.

El primer paso para obtener la caracterización de las neuronas es la segmentación de las neuronas del tejido de fondo. Las segmentaciones se obtuvieron utilizando métodos automatizados27,28 que utilizan cuencas hidrográficas guiadas por escala de grises en imágenes difundidas anisotrópicamente para separar neuronas, en lugar de mapas de distancia de uso frecuente obtenidos del umbral de nivel de gris, proporcionando una imagen binaria de áreas de neuronas segmentadas que no se superponen. Dado que el objetivo aquí es crear resultados uniformes en todo el tejido, también se pueden utilizar otros métodos de segmentación, como una segmentación de instancias propuesta recientemente a través de propuestas de contorno29, especialmente para diferentes métodos de tinción. Este paso produjo las ubicaciones y segmentaciones de las neuronas, a partir de las cuales se desarrollan otras características neuronales.

En segundo lugar, las segmentaciones de las neuronas se analizaron mediante el análisis de partículas de ImageJ30. Se realizó una superposición de segmentaciones binarias y la imagen original, y se utilizó la función de análisis de partículas de ImageJ para producir mediciones de los cuerpos de las neuronas. Esos fueron el área, el perímetro, la circularidad, la redondez y el diámetro de Feret, así como la media, la mediana, la asimetría y la curtosis de los valores grises. Se pueden encontrar más detalles sobre la medición de partículas en la documentación de ImageJ31. Estas características forman la base de las investigaciones en microanatomía cerebral, ya que a menudo, aunque no con este nivel de precisión, son percibidas por el ojo de los neuroanatomistas. Con esto, obtenemos las primeras características neuronales, que pueden visualizarse para revelar patrones de su apariencia a través de las capas corticales, como se muestra en la Fig. 2. Cabe señalar que los valores basados ​​en la intensidad de la imagen no se utilizaron en el análisis posterior como se concluyó que estos no eran utilizables en general, ya que pueden estar muy influenciados por la tinción desigual en la sección y mostrar diferentes valores para diferentes procedimientos de tinción. Estas medidas simples no poseen un poder discriminativo para crear clasificaciones claras de neuronas dentro de las capas. Por lo tanto, se calcularon descriptores más ricos que incorporan vecindarios de neuronas, como se describe a continuación.

Al visualizar la característica neuronal básica, el área y la densidad local, se revela la estructura laminar, ya que estas características exhiben distribuciones multimodales. Izquierda: se distinguieron tres tipos de neuronas por la densidad celular en su entorno: muy escasas (azul), escasas (rojas) y densas (verdes). Medio: neuronas más grandes (rojas) y más pequeñas (verdes). Derecha: el tamaño promedio de las neuronas vecinas es una característica obtenida de las dos anteriores: las neuronas vecinas más cercanas y sus áreas, que también se pueden usar para facilitar la predicción de capas. Aquí, los umbrales que separan las distribuciones se obtuvieron utilizando la minimización de la varianza intraclase26.

Vale la pena mencionar que los algoritmos de agrupamiento basados ​​en la densidad a menudo se usan para segmentar las áreas de densidades puntuales similares32,33,34, que pueden relacionarse con capas corticales que tienen una densidad aproximadamente uniforme dentro de cada capa. Sin embargo, parece que la distribución de las neuronas en la corteza es tal que su estructura intrínseca puede no estar agrupada por un solo conjunto de parámetros de densidad global, como se usa en los métodos de agrupamiento. Sin embargo, estos métodos proporcionaron información sobre algunas propiedades corticales. Se crearon grupos significativos al considerar las neuronas dentro del radio entre \(100\;\upmu \hbox {m}\) y \(300\;\upmu \hbox {m}\), que contienen entre 300 y 800 neuronas. Esto llevó a la conclusión de que la naturaleza cambiante de la distribución de las neuronas en el cerebro se caracteriza mejor cuando se realizan mediciones en este rango. Este rango también corresponde aproximadamente a los límites biológicos de las distancias entre capas. Es importante enfatizar que aunque elegir un radio predefinido o una cantidad de vecinos puede parecer equivalente, se prefiere el análisis de los vecinos más cercanos al enfoque de radio fijo. Un radio predefinido puede interpretarse de manera diferente, según la resolución de la imagen. El rango especificado alrededor de una neurona permite un análisis más detallado y preciso de la microestructura del tejido en esa área específica al equilibrar entre obtener suficiente información para capturar las propiedades locales del tejido y no confundirse al alejarse demasiado de la neurona hacia otras capas y incorporando información que no está en la vecindad de la neurona y, por lo tanto, es menos relevante para el fenotipo de la neurona. Además, si se usa un número máximo fijo de vecinos para cada neurona, se pueden precalcular estructuras de datos eficientes como kd-trees35,36. Teniendo en cuenta la gran cantidad de neuronas que se encuentran en una sección histológica, la eficiencia puede ser de importancia crítica.

Para medir las propiedades de los vecindarios de las neuronas, se consideraron los k vecinos más cercanos, para \(k \in [50,100,250,500,1000]\). Las distancias al k-ésimo vecino más cercano de una neurona se utilizaron como característica, así como su media, máx., mín., asimetría, curtosis y entropía. Las medidas básicas de las neuronas individuales se calcularon de manera similar para producir, por ejemplo, el área promedio de las 100 neuronas vecinas, como se muestra a la derecha en la Fig. 2. Un casco convexo de neuronas vecinas k brinda información sobre el área alrededor una neurona y varias de sus vecinas y se describe utilizando el área del casco, el perímetro, la distancia más cercana promedio para las neuronas que se encuentran en el casco y la desviación estándar de las distancias más cercanas. La dispersión de las neuronas se puede cuantificar mediante el índice del vecino más cercano (NNI), una medida que describe si los puntos siguen patrones subjetivos habituales de distribución regular, agrupada o aleatoria. El NNI mide la distancia entre cada punto y la ubicación de su vecino más cercano. Se promedian todas las distancias de los vecinos más cercanos y, si la distancia promedio es menor que el promedio de una distribución aleatoria, la distribución de las entidades que se analizan se considera agrupada. Si la distancia promedio es mayor que una distribución aleatoria, las características se consideran dispersas regularmente. El índice se expresa como el cociente de la distancia media observada dividida por la distancia esperada, que se basa en una distribución aleatoria con el mismo número de puntos que cubren la misma área total,

Las neuronas en todas las capas excepto la capa I y la sustancia blanca tienden más a una distribución uniformemente dispersa, especialmente las neuronas de la capa IV que tienden más a una distribución aleatoria.

Dependiendo de su posición en la corteza, una neurona puede ubicarse más hacia el medio o más hacia el borde de su capa. El cálculo de las propiedades de su vecindad puede confundirse al llegar a capas adyacentes y usar neuronas con diferentes propiedades para el cálculo de estadísticas. Para identificar este caso, las mediciones pueden tomarse solo de las neuronas que se encuentran dentro del rango de ángulo o cortes. Las características medidas en varias direcciones pueden identificar las neuronas fronterizas y los cambios en las propiedades neuronales en diferentes direcciones. Los cortes pueden considerarse como unidades de medida que se extienden desde una sola neurona, y cada unidad representa una población de neuronas vecinas que se encuentran en una dirección determinada desde la neurona central. La relación de diferentes poblaciones dentro de un área ha sido ampliamente estudiada en el marco de la diversidad biológica de especies, paisajes y otros37,38. Considerando las neuronas en un segmento como miembros de una sola especie, y las k vecinas de una neurona como la población de todas las especies en su hábitat, las medidas de biodiversidad evalúan la relación entre las especies. En este contexto, el número de rebanadas es el número de especies diferentes, o riqueza, y la abundancia relativa de las diferentes especies en un área como uniformidad. Las dos medidas más utilizadas son el índice de Shannon39 y el índice de Simpson40. El índice de Shannon da una medida cuantitativa de la incertidumbre en la predicción de la especie de un individuo elegido al azar de la población. El índice de Simpson mide la probabilidad de que los dos individuos elegidos al azar (con reemplazo) de la población total sean de la misma especie.

donde R es el número de especies diferentes o, aquí, cortes, y \(p_i\) es la proporción de especies del i-ésimo tipo en la población o la proporción de neuronas en el i-ésimo corte con respecto al número de neuronas en el k-vecindario. Si todos los cortes tienen el mismo número de neuronas, los valores de \(p_i\) son iguales a 1/R, y el índice de Shannon toma el valor máximo de \(\ln R\). Si los números son desiguales, la media geométrica ponderada de los valores de \(p_i\) es mayor, lo que da como resultado que el índice tenga valores más pequeños. El índice es igual a cero si las neuronas de un solo segmento están presentes, ya que no hay incertidumbre al predecir el segmento en el que se encuentran. El índice proporciona información sobre la relación entre el número de tipos y la presencia del tipo dominante. La abundancia proporcional media de los cortes aumenta con la disminución del número de cortes y con el aumento de la abundancia del corte con el mayor número de neuronas, el índice obtiene valores pequeños en regiones de alta diversidad como neuronas en los bordes entre las capas, capas delgadas y especialmente las neuronas de la capa I. El índice es grande en áreas homogéneas como la mitad de la capa III, donde los cortes que llegan desde una neurona permanecen en el área de la capa.

Todas las muestras se recolectaron durante autopsias regulares en los departamentos de patología de la Facultad de Medicina de la Universidad de Zagreb, aprobadas por el Comité de Ética de la Facultad de Medicina de la Universidad de Zagreb y de acuerdo con la Declaración de Helsinki, y se obtuvo el consentimiento informado del pariente más cercano.

La distribución de las características de las neuronas en la corteza proporciona información sobre diferentes aspectos de la organización citoarquitectónica. Este enfoque detallado a nivel de neuronas permite la inspección de tejidos siguiendo principios citoarquitectónicos conocidos como, por ejemplo, la distribución de las neuronas más grandes. Las de mayor área se encontraron en la capa III de la corteza y fueron seguidas por las neuronas de la capa V y la capa VI. De las 50 neuronas más grandes, \(43 (86\%)\) se encontraron en la capa III, \(5 (10\%)\) en la capa V, y \(2 (4\%)\) en la capa VI. De las 500 neuronas más grandes, \(268 (54\%)\) se encontraron en la capa III, \(142 (28\%)\) en la capa V, \(87 (17\%)\) en la capa VI , y solo \(3 (1\%)\) en la capa IV. Esta comparación confirma que las características calculadas producen resultados significativos y siguen las observaciones neuroanatómicas. La visualización de la proporción de la distribución de las 500 neuronas más grandes y más pequeñas entre las capas se muestra en la Fig. 3. La circularidad y la redondez de las neuronas se encontraron más bajas en la capa VI, que se sabe que consiste en neuronas multipolares con dendritas que se extienden en diferentes direcciones. Las variaciones en la intensidad de la escala de grises se expresaron diferencialmente en las capas corticales. Las neuronas con los valores medios más altos de escala de grises se encontraron principalmente en la capa I, mostrando una baja ingesta de colorante NeuN. Las neuronas con la mediana más baja se encontraron predominantemente en la capa VI, en la capa IV y en el medio de la capa III, a veces denominada capa IIIb. No se llegó a ninguna conclusión ni se encontró la razón por la que las neuronas de la capa VI tienen propiedades de captación de NeuN tan grandes que resultaron en intensidades de escala de grises individuales más bajas. Se demostró que las medidas relacionadas con la forma de las neuronas, como el área, la circularidad o el perímetro, brindan un mayor poder de discriminación, lo cual no es inesperado, ya que los hallazgos en la investigación neuroanatómica se basan en gran medida en la forma y el tamaño de las neuronas.

El análisis centrado en las neuronas permite obtener estadísticas más ricas. Aquí se muestra la proporción de las neuronas superiores más grandes (izquierda) y más pequeñas (derecha) encontradas en la sección, distribuidas por capa. Las neuronas más grandes se encontraron en la capa III de la corteza y fueron seguidas por neuronas de la capa V y la capa VI. De las 50 neuronas más grandes, \(43 (86\%)\) se encontraron en la capa III, \(5 (10\%)\) en la capa V, y \(2 (4\%)\) en la capa VI. De las 500 neuronas más grandes, \(268 (54\%)\) se encontraron en la capa III, \(142 (28\%)\) en la capa V, \(87 (17\%)\) en la capa VI , y solo \(3 (1\%)\) en la capa IV, que sigue a las observaciones neuroanatómicas.

Usando la densidad neuronal local, la capa I y la sustancia blanca se pueden distinguir por tener una densidad neuronal pequeña, lo que identifica regiones dispersas de la sección o regiones densas que contienen las capas II y IV, como se muestra en la Fig. 2. La región dispersa se puede dividir aún más usando la característica del área del casco: las neuronas en la sustancia blanca tendrán un área del casco grande, en contraste con las neuronas de la capa I, cuyo casco está limitado entre el borde del tejido y la densa capa II. Al calcular las distancias a la capa I y la materia blanca, se derivan el grosor cortical y la profundidad de cada neurona, como se muestra en la Fig. 4.

Las características basadas en la densidad local y el radio convexo del casco se utilizan para obtener características del tejido sin dibujar perfiles ni tomar muestras perpendiculares a la corteza. Izquierda: las áreas dispersas se separan en la capa I y la sustancia blanca. Medio: profundidad cortical. Derecha: grosor cortical.

Aunque los conjuntos de características neuronales desarrollados proporcionan descriptores cuantitativos de la organización cortical, no son suficientes para proporcionar una clasificación clara de la capa cortical correcta. Si bien algunas características pueden expresarse más en ciertas capas que en otras, no es sencillo determinar qué cambia exactamente entre capas, o el impacto y la interconexión de diferentes características. Esto condujo a la suposición de que hay información contenida en las funciones desarrolladas que se puede analizar, combinar y utilizar para producir una clasificación precisa de las neuronas con respecto a su ubicación dentro de las capas corticales a través de modelos más complejos y expresivos. Se utiliza un enfoque de aprendizaje automático supervisado en un conjunto de datos de capas segmentadas manualmente para predecir con precisión la capa de cada neurona en la sección histológica. Así, se pueden obtener segmentaciones de capas a lo largo de la sección. Las atribuciones de características para el modelo se investigan para identificar características de tejido informativas.

Para obtener el conjunto de datos de entrenamiento a partir del cual el método de aprendizaje automático aprenderá a clasificar las neuronas según sus capas, se entregaron partes de ambas secciones histológicas digitalizadas a tres humanos expertos en histología y citoarquitectónica, quienes delinearon manualmente los bordes entre las capas de la corteza. Las aparentes inconsistencias y desacuerdos mutuos entre los expertos, como se ve en la Fig. 5, muestran la presencia del sesgo de los expertos. Los expertos discreparon en los límites de todas las capas, excepto en el límite muy aparente de la capa I/capa II. El conjunto de datos etiquetado manualmente contenía 12 647 neuronas en la sección \(10\;\upmu \hbox {m}\) y 9821 neuronas en la sección \(10\;\upmu \hbox {m}\).

Se eligieron árboles de decisión potenciados, un método de aprendizaje supervisado de última generación sobre datos de entrada tabulares, como las características de las neuronas computadas41,42, para la predicción e interpretación de la laminación cortical por sus diversas ventajas. Los árboles de decisión reflejan la toma de decisiones humana más fielmente que otros enfoques43, lo que es especialmente útil cuando se modelan actividades humanas, como la delineación manual de capas corticales, un proceso de toma de decisiones basado en una combinación de información sobre las características de las neuronas. Utilizamos CatBoost44, un método basado en el aumento de gradientes sobre árboles de decisión, que es uno de los modelos más exitosos para tratar con datos tabulares. El modelo se entrenó para 100 iteraciones con una tasa de aprendizaje de 0,1 y otros parámetros predeterminados. Las mejores generalizaciones se obtuvieron combinando las etiquetas manuales de los tres evaluadores en un conjunto. Se entrenaron tres modelos separados, uno para cada evaluador, y se sumaron las probabilidades de salida objetivas de softmax, y la predicción final se realizó utilizando un máximo sobre todas las clases para cada evaluador. Los resultados de este enfoque se muestran a la derecha de la Fig. 6. Se predicen las clases de neuronas y las neuronas se clasifican con precisión de una manera que sigue el patrón laminar de la corteza.

Detalle de capas corticales delineadas manualmente por los expertos. Se observa un desacuerdo significativo en los límites de las capas, así como en el posicionamiento del límite entre la corteza y la sustancia blanca.

Aprender a mapear el fenotipo neuronal a las capas corticales utilizando una canalización de aprendizaje automático clásica. La representación neuronal, o fenotipado, se basa en la segmentación automática de neuronas y el análisis de características morfológicas y texturales. Luego, esta representación se usa como entrada para un modelo de aprendizaje automático que aprendió a resolver la tarea de clasificación multiclase al clasificar las neuronas entre las seis capas de la corteza. El modelo aprendió las variaciones en las características neuronales y pudo generalizar, es decir, crear predicciones coherentes y sensatas de capas en toda la sección histológica. El rectángulo negro enmarca la parte de la sección que fue etiquetada manualmente por tres expertos y utilizada como datos de entrenamiento.

Los experimentos con diferentes conjuntos de características han demostrado que, aunque algunas combinaciones de características logran una alta precisión en los datos de entrenamiento, eso en sí mismo no garantiza que el modelo funcione bien en toda la sección histológica. La introducción de características basadas en la distancia a regiones escasas o densas ha mejorado significativamente la capacidad del modelo para separar regiones de las secciones en parcelas siguiendo el diseño laminar de la corteza.

Sin la existencia de una única base de referencia como referencia, la medición del rendimiento del modelo se considera en el contexto de la variabilidad entre evaluadores. Los datos de entrenamiento se dividieron en \(75\%\) subconjuntos de entrenamiento y \(25\%\) de prueba, y las predicciones del modelo se compararon con las etiquetas manuales de los expertos. Comparando las predicciones de la capa de neuronas, el acuerdo promedio entre dos expertos fue \(0.755 \pm 0.049\) para \(10\;\upmu \hbox {m}\) y \(0.809 \pm 0.049\) para \(20\;\ upmu \hbox {m}\) corte histológico. La precisión promedio del modelo, en comparación con los tres expertos, fue \(0.872\pm 0.042\) y \(0.897 \pm 0.047\). Se podría relacionar esto con la precisión en el enfoque de segmentación de Wagstyl en BigBrain, donde la validación cruzada, la precisión promedio por punto en el pliegue de prueba fue \(0.83 \pm 0.02\).

En este estudio, propusimos un enfoque novedoso para analizar las características corticales a fin de facilitar investigaciones científicas más detalladas y específicas. Actualmente, un estándar de oro es una anotación manual realizada por expertos capacitados. Sin embargo, los expertos humanos a menudo están sesgados y los resultados obtenidos en dicho análisis a menudo son inconsistentes. Una característica importante en la delimitación de capas y áreas corticales es el tamaño neuronal. Nuestros hallazgos demostraron que en las regiones analizadas, que pertenecen a la isocorteza homotípica de la corteza prefrontal, las neuronas en la capa III son en general más grandes que las neuronas en la capa V. Aunque un sentido general es que las neuronas en la capa V son más grandes que las neuronas en la capa III eso no es cierto para la corteza prefrontal. Las neuronas piramidales más grandes de la corteza cerebral se encuentran de hecho en la capa V (células de Betz de la corteza motora); sin embargo, en la mayoría de las áreas corticales, las neuronas piramidales de la capa V son más pequeñas que las neuronas de la capa III3. Este hallazgo confirma que las características calculadas producen resultados significativos y siguen las observaciones neuroanatómicas.

Para una comprensión más profunda tanto del modelo como de las características que se utilizan en la canalización, se realizó una investigación del impacto de las características en la predicción de la clase de neurona tanto a nivel global (modelo) como de instancia (neurona individual). Se utilizó un enfoque reciente para medir las atribuciones de características en los modelos de aprendizaje, la medida SHAP45, para la estimación de las características de las neuronas que más contribuyen a la clasificación de las neuronas dentro de las capas. Los detalles sobre los valores SHAP y su influencia en los resultados del modelo para los conjuntos de datos \(10\;\upmu \hbox {m}\) y \(20\;\upmu \hbox {m}\) se presentan en la Fig. 7, y en detalle para cada capa cortical en ambas secciones en el archivo de información complementaria, Fig. S.1 y Fig. S.2.

Importancia de las 15 principales funciones neuronales a nivel de modelo utilizando el análisis de importancia de funciones SHAP para \(10\;\upmu \hbox {m}\) (izquierda) y \(20\;\upmu \hbox {m}\) ( derecha) secciones. Para las funciones que usan propiedades de neuronas vecinas, el número de vecinos más cercanos se indica al comienzo del nombre de la función. Independientemente de las diferencias en la densidad neuronal, los modelos en ambas secciones prefirieron aproximadamente un número similar de neuronas en los vecindarios más cercanos, que tenían un promedio de 500 neuronas. Para ambas secciones, la profundidad cortical de una neurona fue la característica más informativa para los modelos de aprendizaje automático. Los modelos en ambas secciones también se basaron en características relacionadas con el tamaño (Área) de las neuronas vecinas, así como las distancias a áreas de densidades uniformemente más bajas y más altas. Las propiedades individuales de forma y textura de las neuronas que no tienen en cuenta los vecindarios de las neuronas fueron las menos informativas y no agregaron valor predictivo.

Un aspecto importante de este enfoque es la capacidad de identificar características que contribuyen a predecir una única instancia de los datos, para cada neurona. Por ejemplo, la Fig. 8 muestra qué características neuronales para una neurona de la capa VI contribuyeron al aumento del valor SHAP base y a hacer la predicción. La figura también muestra el impacto de las características que disminuyeron el valor de salida para la predicción de la misma neurona como neurona de materia blanca.

La contribución de diferentes funciones para predecir la capa de una neurona se puede analizar a nivel de instancia, para cada neurona individual. Arriba: características de la neurona de una sola neurona de la capa III que contribuyeron al aumento del valor base de SHAP y hacen la predicción. Abajo: la importancia de las características que disminuyeron el valor de salida para la predicción de la misma neurona como una neurona de capa II.

La función de profundidad cortical tuvo un gran impacto en la salida del modelo. Esto se debe a que ayuda a integrar características más simples como densidades locales con observaciones anatómicas sobre la posición de una neurona dentro de la corteza. Las características basadas en mediciones orientadas que miden el cambio de las propiedades citoarquitectónicas en diferentes direcciones también tuvieron una importancia característica considerable, pudiendo identificar neuronas en el borde de las capas corticales. Se demostró que construir sobre características de nivel inferior produce características que tienen un mayor poder discriminativo y, por lo tanto, una mayor importancia. Esto se debe a su capacidad para superar las variaciones locales en las características de las neuronas y tomar, por ejemplo, la media de esas características. Por el contrario, al utilizar características de una neurona como un área, no aumenta la precisión de la predicción, lo que se refleja en la poca importancia de estas características. Esta es probablemente la razón por la cual los diferentes métodos para el análisis de patrones locales y los métodos clásicos de extracción de características de imágenes no tienen mucho éxito en la segmentación de la capa cortical. Se estableció el rango del radio de variabilidad, dando una estimación del tamaño de la vecindad de la neurona en la que se deben realizar las mediciones, por lo que es lo suficientemente grande como para superar las variaciones locales en la distribución de las neuronas y reconocer su ubicación dentro de la estructura cortical por un lado, y por otro lado. el otro lo suficientemente angosto para que las medidas no se confundan al llegar demasiado lejos en las capas adyacentes.

Para investigar los efectos del grosor de la sección, analizamos el número de vecinos más cercanos en varios rangos fijos y establecimos que en \(10\;\upmu \hbox {m}\) sección \(55.6\%\pm 0.7\%\ ) se encuentran menos neuronas, en comparación con las secciones \(20\;\upmu \hbox {m}\). Por otro lado, se puede observar el número de vecinos más cercanos en las principales características más informativas seleccionadas por los modelos. Al observar las 20 características principales en los modelos entrenados en cada sección, se puede notar un aumento en el número promedio de vecinos en las características en la sección \(10\;\upmu \hbox {m}\) (630 en comparación con 580), sin embargo , La diferencia no es significante estadísticamente. Ambos resultados respaldan el razonamiento de la sección Materiales y métodos sobre el rango hipotético en el que se deben calcular los valores del vecino más cercano, y que se debe preferir el número de vecinos a los rangos predefinidos.

Durante los experimentos con diferentes modelos, se notó que partes de la capa III y la capa VI a veces se dividen en subcapas que siguen la dirección de la estructura laminar, aunque son muy cortas y no se extienden a lo largo de una porción significativa del corte. Otras investigaciones que utilicen la metodología desarrollada pueden proporcionar una visión más detallada de las subcapas de la estructura cortical.

El método propuesto ha demostrado la capacidad de generalizar en secciones con un conjunto de datos de entrenamiento muy limitado, mostrando resultados prometedores e indicando que podría ser transferible a otros cerebros. Sin embargo, debido a la complejidad del cerebro, se necesita más investigación que utilice una mayor cantidad de datos histológicos de mayor variabilidad para demostrar con certeza el grado en que estos resultados se pueden generalizar en diferentes cerebros. Esto también permitirá realizar más pruebas del enfoque en diferentes áreas del cerebro, tinción de tejidos y planos de corte. En el corte oblicuo, donde el ángulo del plano de corte puede influir en la forma de las neuronas, por ejemplo, las neuronas piramidales no aparecerán como triángulos si el corte fue perpendicular a las columnas neuronales. Esta limitación puede superarse utilizando la representación 3D de las neuronas.

Hemos propuesto una nueva metodología para modelar la citoarquitectónica cerebral que se construye a partir del nivel celular e infiere sobre estructuras más grandes mediante la creación de descriptores de tejido a nivel de neurona basados ​​en datos basados ​​en características de neuronas individuales o fenotipo neuronal. Esto contrasta con los otros enfoques actuales de la neurociencia, que se basan principalmente en datos de píxeles. El paso del análisis basado en píxeles al análisis centrado en las neuronas, en el que la estructura del cerebro se estudia a través de la lente de la relación entre las neuronas, en lugar de confiar únicamente en los valores cambiantes de los píxeles en la imagen histológica, transmite un nuevo paradigma. en el campo y permite introducir métodos de otras disciplinas. Aquí, nos referimos al cambio en la forma en que se recopilan, examinan y comprenden los datos histológicos, y la introducción de métodos de aprendizaje automático que operan con datos tabulares, para lo cual primero se tuvieron que hacer las representaciones de las neuronas. Al apoyarse más en métodos basados ​​en datos, nuestro enfoque reduce la necesidad de intervenciones e interpretaciones dependientes de humanos, lo que permite una cuantificación más objetiva y reproducible a gran escala. Estas configuraciones permiten nuevos conocimientos sobre la organización de la microestructura cortical y las diferencias sutiles en la neuropatología. Al permitir el surgimiento de nuevas y mejores descripciones y comprensión de la estructura cerebral en diferentes áreas y etapas de desarrollo, nuestro trabajo facilita el avance hacia investigaciones objetivas, totalmente automáticas y de alto rendimiento, lo que permite el procesamiento de cantidades cada vez mayores de datos histológicos disponibles. a nivel mundial en los centros de investigación de hoy.

El escenario de uso de la metodología propuesta se demostró en una región particular del cerebro y se validó utilizando un conjunto de datos etiquetados manualmente por tres expertos. Nuestra metodología es fácilmente extensible con características neuronales novedosas, como diferentes tinciones o mapas de receptores, y permite el uso de otros métodos computacionales basados ​​en el aprendizaje automático, como las redes neuronales gráficas, que atraerán futuras iniciativas de investigación en el campo de la neurociencia computacional.

Los conjuntos de datos generados y/o analizados durante el estudio actual están disponibles del autor correspondiente previa solicitud razonable.

Brodmann, K. Teoría comparativa de localización de la corteza cerebral presentada en sus principios sobre la base de la estructura celular (Barth, 1909).

Google Académico

Judaš, M., Cepanec, M. & Sedmak, G. Mapa de Brodmann de la corteza cerebral humana, ¿o mapas de Brodmann?. Traducir Neurosci. 3, 67–74 (2012).

Artículo Google Académico

de Economo, CF & Koskinas, GN La citoarquitectura de la corteza cerebral humana adulta (Springer, 1925).

Google Académico

Kaas, JH La organización funcional de la corteza somatosensorial en primates. Ana. Anat. Anatomischer Anzeiger 175, 509–518 (1993).

Artículo CAS PubMed Google Académico

Lutnick, B. et al. Una técnica de anotación iterativa integrada para facilitar el entrenamiento de redes neuronales en el análisis de imágenes médicas. Nat. Mach. Intel. 1, 112–119 (2019).

Artículo PubMed PubMed Central Google Académico

Hudspeth, A., Ruark, J. & Kelly, J. Cartografía citoarquitectónica por microdensitometría. proc. nacional Academia ciencia 73, 2928–2931 (1976).

Artículo ADS CAS PubMed PubMed Central Google Scholar

Hopf, A. Registro de la mieloarquitectura del lóbulo frontal humano con un método de extinción. J. Hirnforsch. 10, 259 (1968).

CAS PubMed Google Académico

Schleicher, A., Amunts, K., Geyer, S., Morosan, P. y Zilles, K. Método independiente del observador para la parcelación microestructural de la corteza cerebral: un enfoque cuantitativo de la citoarquitectónica. Neuroimagen 9, 165–177. https://doi.org/10.1006/nimg.1998.0385 (1999).

Artículo CAS PubMed Google Académico

Zilles, K., Schleicher, A., Palomero-Gallagher, N. & Amunts, K. Análisis cuantitativo de la arquitectura de cito y receptor del cerebro humano. En Brain Mapping: The Methods (Segunda edición) 573–602 (Elsevier, 2002).

Schleicher, A., Zilles, K. & Kretschmann, H. Registro automático y evaluación de un índice de valor gris en secciones histológicas. Verh Anat Ges 72, 413-415 (1978).

Google Académico

Amunts, K. & Zilles, K. Mapeo arquitectónico del cerebro humano más allá de Brodmann. Neurona 88, 1086–1107 (2015).

Artículo CAS PubMed Google Académico

Meyer, HS et al. Número y distribución laminar de neuronas en una columna de proyección talamocortical de la corteza vibrissal de rata. cerebro. Corteza 20, 2277–2286 (2010).

Artículo PubMed PubMed Central Google Académico

Amunts, K. et al. Bigbrain: un modelo de cerebro humano en 3D de ultra alta resolución. Ciencia 340, 1472–1475 (2013).

Artículo ADS CAS PubMed Google Scholar

Wagstyl, K. et al. Mapeo de la estructura laminar cortical en el bigbrain 3d. cerebro. Corteza 28, 2551–2562 (2018).

Artículo PubMed PubMed Central Google Académico

Quabs, J. et al. Citoarquitectura, mapas de probabilidad y segregación de la ínsula humana. Neuroimagen 260, 119453 (2022).

Artículo PubMed Google Académico

Wagstyl, K. et al. La segmentación automatizada de capas corticales en bigbrain revela gradientes de espesor cortical y laminar divergentes en las cortezas sensoriales y motoras. PLoS Biol. 18, e3000678 (2020).

Artículo CAS PubMed PubMed Central Google Scholar

Kiwitz, K., Schiffer, C., Spitzer, H., Dickscheid, T. & Amunts, K. Las redes de aprendizaje profundo reflejan características citoarquitectónicas utilizadas en el mapeo cerebral. ciencia Rep. 10, 1–15 (2020).

Artículo Google Académico

Nosova, S., Snopova, L. y Turlapov, V. Detección automática de neuronas, astrocitos y capas para la corteza de ratón teñida con nissl. J. WSCG 25, 143–150 (2017).

Google Académico

Li, D. et al. Discriminación de la estructura jerárquica de las capas corticales en datos de microscopía de 2 fotones mediante aprendizaje automático combinado no supervisado y supervisado. ciencia Rep. 9, 7424 (2019).

Artículo ADS PubMed PubMed Central Google Scholar

Tizhoosh, HR et al. Búsqueda de imágenes por consenso: ¿Puede la IA eliminar la variabilidad del observador en la patología?. Soy. J. Pathol. 191, 1702–1708 (2021).

Artículo PubMed Google Académico

van Albada, SJ et al. Incorporación de información anatómica en modelos de redes neuronales. preimpresión de arXiv arXiv:2007.00031 (2020).

Danuser, G. Visión por computadora en biología celular. Celda 147, 973–978 (2011).

Artículo CAS PubMed Google Académico

Grys, BT et al. Enfoques de aprendizaje automático y visión artificial para perfiles fenotípicos. J. Cell Biol. 216, 65–71 (2017).

Artículo CAS PubMed PubMed Central Google Scholar

Judas, M. et al. La colección de cerebros humanos de Zagreb: un recurso único, versátil pero poco explotado para la comunidad de neurociencias. Ana. Academia de Nueva York. ciencia 1225, E101–E130 (2011).

Artículo Google Académico

Hsu, S.-M., Raine, L. & Fanger, H. El uso del anticuerpo antiavidina y el complejo avidina-biotina-peroxidasa en técnicas de inmunoperoxidasa. Soy. J. Clin. Patol. 75, 816–821 (1981).

Artículo CAS PubMed Google Académico

Otsu, N. Un método de selección de umbral a partir de histogramas de nivel de gris. Trans. IEEE. sist. Hombre cibernético. 9, 62–66 (1979).

Artículo Google Académico

Štajduhar, A., Džaja, D., Judaš, M. & Lončarić, S. Detección automática de neuronas en imágenes histológicas del cerebro humano teñidas con neutrones. Física A 519, 237–246 (2019).

Artículo ADS MathSciNet MATH Google Scholar

Štajduhar, A., Lepage, C., Judaš, M., Lončarić, S. & Evans, AC Localización 3d de neuronas en imágenes histológicas de campo claro. En ELMAR (ELMAR), 2018 60th International Symposium 75–78 (IEEE, 2018).

Upschulte, E., Harmeling, S., Amunts, K. & Dickscheid, T. Redes de propuesta de contorno para la segmentación de instancias biomédicas. Medicina. Anal de imagen. 77, 102371 (2022).

Artículo PubMed Google Académico

Rueden, CT et al. Imagej 2: Imagej para la próxima generación de datos de imágenes científicas. BMC Bioinforme. 18, 529 (2017).

Artículo Google Académico

Menú de análisis de ImageJ. https://imagej.nih.gov/ij/docs/menus/analyze.html. Acceso: 2022-09-30.

Rodriguez, A. & Laio, A. Clustering por búsqueda rápida y hallazgo de picos de densidad. Ciencia 344, 1492–1496 (2014).

Artículo ADS CAS PubMed Google Scholar

Ankerst, M., Breunig, MM, Kriegel, H.-P. & Sander, J. Óptica: puntos de ordenación para identificar la estructura de agrupamiento. En ACM Sigmod Record Vol. 28/2 49–60 (ACM, 1999).

Campello, RJ, Moulavi, D., Zimek, A. & Sander, J. Estimaciones de densidad jerárquica para agrupación de datos, visualización y detección de valores atípicos. ACM Trans. Saber Descubrir Datos (TKDD) 10, 5 (2015).

Google Académico

Bentley, JL Árboles de búsqueda binarios multidimensionales utilizados para la búsqueda asociativa. común ACM 18, 509–517 (1975).

Artículo MATEMÁTICAS Google Académico

Maneewongvatana, S. & Mount, DM Está bien ser flaco, si tus amigos son gordos. En el Centro de Computación Geométrica, 4.º Taller Anual sobre Geometría Computacional, vol. 2 1–8 (1999).

Magurran, AE Midiendo la Diversidad Biológica (Wiley, 2013).

Google Académico

Nagendra, H. Tendencias opuestas en respuesta a los índices de diversidad del paisaje de Shannon y Simpson. aplicación Geogr. 22, 175–186 (2002).

Artículo Google Académico

Shannon, CE Una teoría matemática de la comunicación. Sistema de campana tecnología J. 27, 379–423 (1948).

Artículo MathSciNet MATEMÁTICAS Google Académico

Simpson, EH Medida de la diversidad. Naturaleza 163, 688 (1949).

Artículo ADS MATH Google Scholar

Bramer, M. Principios de minería de datos vol. 180 (Springer, 2007).

Matemáticas Google Académico

Liu, S., Wang, X., Liu, M. y Zhu, J. Hacia un mejor análisis de los modelos de aprendizaje automático: una perspectiva de análisis visual. Informática visual 1, 48–56 (2017).

Artículo Google Académico

James, G., Witten, D., Hastie, T. y Tibshirani, R. Introducción al aprendizaje estadístico vol. 112 (Primavera, 2013).

Libro MATEMÁTICAS Google Académico

Dorogush, AV, Ershov, V. & Gulin, A. Catboost: Aumento de gradiente con soporte de características categóricas. preimpresión de arXiv arXiv:1810.11363 (2018).

Lundberg, SM y Lee, S.-I. Un enfoque unificado para interpretar las predicciones del modelo. En Avances en sistemas de procesamiento de información neuronal vol. 30 (eds. Guyon, I. et al.) 4765–4774 (Curran Associates, Inc., 2017).

Google Académico

Descargar referencias

Esta publicación fue financiada por la Unión Europea a través del Fondo Europeo de Desarrollo Regional, Programa Operativo Competitividad y Cohesión Programa Operativo, Acuerdos de Subvención No. KK.01.1.1.01.0007, CoRE - Neuro y KK.01.1.1.01.0009, "DATACROSS "; y el Canada First Research Excellence Fund, otorgado a la Universidad McGill por la iniciativa Healthy Brains for Healthy Lives. Los autores extienden su agradecimiento a Dora Sedmak del Instituto Croata para la Investigación del Cerebro (CIBR), Facultad de Medicina, Universidad de Zagreb, y Jennifer Novek del Instituto Neurológico de Montreal (MNI), Universidad McGill, por su esfuerzo en el etiquetado de neuronas y debates útiles. . Un agradecimiento especial a Claude Lepage del MNI, Universidad McGill, por leer el documento detenidamente y brindar comentarios constructivos. Los autores dedican este artículo a la memoria de Tomislav Lipić.

Tomislav Lipić ha fallecido.

Escuela de Salud Pública "Andrija Štampar", Escuela de Medicina, Universidad de Zagreb, 10000, Zagreb, Croacia

Andrija Stajduhar

Instituto Croata de Investigación Cerebral, Facultad de Medicina, Universidad de Zagreb, 10000, Zagreb, Croacia

Andrija Štajduhar, Miloš Judaš y Goran Sedmak

Laboratorio de aprendizaje automático y representación del conocimiento, Instituto Ruder Bošković, 10000, Zagreb, Croacia

Tomislav Lipic

Facultad de Ingeniería Eléctrica y Computación, Universidad de Zagreb, 10000, Zagreb, Croacia

Sven Lončarić

También puede buscar este autor en PubMed Google Scholar

También puede buscar este autor en PubMed Google Scholar

También puede buscar este autor en PubMed Google Scholar

También puede buscar este autor en PubMed Google Scholar

También puede buscar este autor en PubMed Google Scholar

COMO. y TL concibió el documento y realizó experimentos. SL y MJ inició y supervisó la investigación. MJ y GS proporcionaron datos y diseñaron experimentos. Todos los autores analizaron e interpretaron en colaboración los resultados. A.Š., TL y GS prepararon el manuscrito. Todos los autores revisaron y verificaron la versión final del manuscrito.

Correspondencia a Andrija Štajduhar.

Los autores declaran no tener conflictos de intereses.

Springer Nature se mantiene neutral con respecto a los reclamos jurisdiccionales en mapas publicados y afiliaciones institucionales.

Acceso abierto Este artículo tiene una licencia internacional Creative Commons Attribution 4.0, que permite el uso, el intercambio, la adaptación, la distribución y la reproducción en cualquier medio o formato, siempre que se otorgue el crédito correspondiente al autor o autores originales y a la fuente. proporcionar un enlace a la licencia Creative Commons e indicar si se realizaron cambios. Las imágenes u otro material de terceros en este artículo están incluidos en la licencia Creative Commons del artículo, a menos que se indique lo contrario en una línea de crédito al material. Si el material no está incluido en la licencia Creative Commons del artículo y su uso previsto no está permitido por la regulación legal o excede el uso permitido, deberá obtener el permiso directamente del titular de los derechos de autor. Para ver una copia de esta licencia, visite http://creativecommons.org/licenses/by/4.0/.

Reimpresiones y permisos

Štajduhar, A., Lipić, T., Lončarić, S. et al. Enfoque de aprendizaje automático interpretable para el análisis centrado en neuronas de la citoarquitectura cortical humana. Informe científico 13, 5567 (2023). https://doi.org/10.1038/s41598-023-32154-x

Descargar cita

Recibido: 11 Octubre 2022

Aceptado: 23 de marzo de 2023

Publicado: 05 abril 2023

DOI: https://doi.org/10.1038/s41598-023-32154-x

Cualquier persona con la que compartas el siguiente enlace podrá leer este contenido:

Lo sentimos, un enlace para compartir no está disponible actualmente para este artículo.

Proporcionado por la iniciativa de intercambio de contenido Springer Nature SharedIt

Al enviar un comentario, acepta cumplir con nuestros Términos y Pautas de la comunidad. Si encuentra algo abusivo o que no cumple con nuestros términos o pautas, márquelo como inapropiado.