banner

Nachricht

Oct 13, 2023

ACCT ist ein schnelles und zugängliches Tool zur automatischen Zellzählung, das maschinelles Lernen für die 2D-Bildsegmentierung nutzt

Wissenschaftliche Berichte Band 13, Artikelnummer: 8213 (2023) Diesen Artikel zitieren

470 Zugriffe

1 Altmetrisch

Details zu den Metriken

Das Zählen von Zellen ist ein Eckpfeiler der Verfolgung des Krankheitsverlaufs in den Neurowissenschaften. Ein gängiger Ansatz für diesen Prozess besteht darin, dass geschulte Forscher Zellen in einem Bild einzeln auswählen und zählen, was nicht nur schwierig zu standardisieren, sondern auch sehr zeitaufwändig ist. Zwar gibt es Tools zum automatischen Zählen von Zellen in Bildern, doch die Genauigkeit und Zugänglichkeit solcher Tools kann verbessert werden. Daher stellen wir ein neuartiges Tool ACCT vor: Automatische Zellzählung mit trainierbarer Weka-Segmentierung, das nach benutzergesteuertem Training eine flexible automatische Zellzählung über Objektsegmentierung ermöglicht. ACCT wird anhand einer vergleichenden Analyse öffentlich verfügbarer Bilder von Neuronen und eines internen Datensatzes immunfluoreszenzgefärbter Mikrogliazellen demonstriert. Zum Vergleich wurden beide Datensätze manuell gezählt, um die Anwendbarkeit von ACCT als zugängliches Mittel zur automatischen Quantifizierung von Zellen auf präzise Weise zu demonstrieren, ohne dass Berechnungscluster oder eine erweiterte Datenvorbereitung erforderlich sind.

Die Quantifizierung von Zellen in Immunfluoreszenzbildern war lange Zeit ein limitierender Schritt sowohl hinsichtlich der Zeit als auch des erforderlichen Aufwands für die Analyse von Mikroskopiedaten, die in der Forschung verwendet werden. Diese selektiven Bildanalysetechniken können wertvolle physiologische Informationen liefern und manuelle Zählungen durch ausgebildete Fachkräfte gelten als „Goldstandard“ für die Quantifizierung1,2.

Hier haben wir die vollständigen manuellen Zählungen mehrerer separater Beobachter zum Vergleich mit einer automatischen Zellzählmethode verwendet. Traditionell bestand ein wichtiger Aspekt zur Wahrung der Konsistenz bei der Zellquantifizierung darin, sicherzustellen, dass ein Datensatz von einem einzelnen Beobachter gezählt wird, der nach Genauigkeit und Reproduzierbarkeit strebt und dabei im Idealfall keinen Einblick in die experimentellen Bedingungen hat. Dies schränkt die Geschwindigkeit, mit der Zellzähldaten verarbeitet werden können, erheblich ein, da mehr Arbeitskräfte nicht immer zu einer höheren Geschwindigkeit führen. Manuelles Zählen kann aufgrund menschlicher Fehler und Ermüdung Probleme mit der Reproduzierbarkeit und Konsistenz eines Datensatzes haben. Solche Probleme können durch die Verwendung von Rechenmodellen vermieden werden, die über eine beliebige Anzahl von Bildern hinweg konsistent bleiben.

Zu diesem Zweck stellen wir hier ACCT vor: Automatische Zellzählung mit trainierbarer Weka-Segmentierung (TWS), gehostet auf GitHub unter https://github.com/tkataras/Automatic-Cell-counting-with-TWS.git. TWS bietet eine Grundlage für maschinelles Lernen für unsere zugängliche Methode zur automatischen Zellzählung, mit zusätzlichem Bildverarbeitungspotenzial durch Skripte in ImageJ, Python und BeanShell3,4. Das TWS-Programm bietet eine grafische Benutzeroberfläche (GUI) zum Trainieren und Anwenden eines Klassifikators für maschinelles Lernen, der zwischen Zell- und Nicht-Zellpixeln unterscheidet, die dann in Zellobjekten gruppiert und gezählt werden. ACCT basiert auf dieser Pixelsegmentierung, um eine quantitative Validierung auf zellulärer Ebene zu ermöglichen und die optimale Auswahl und Anwendung von Klassifikatoren zu unterstützen (Abb. 1). ACCT verarbeitet einkanalige Bilder, die von Benutzern bereitgestellt werden. Bilder mit mehreren Kanälen können analysiert werden, indem Bildkopien verwendet werden, die jeweils einen Kanal zeigen, und Bildsätze für jeden Kanal separat verarbeitet werden.

In dieser Studie werden zwei Datensätze verwendet, um die Leistung in verschiedenen Bildgebungskontexten zu demonstrieren. Der erste verwendete Datensatz besteht aus abgebildeten Mikroglia von Mäusen mit und ohne immun- und entzündungsaktivierenden Zuständen, die durch die transgene Expression des Hüllproteins gp120 des humanen Immundefizienzvirus-1 (HIV-1)5 hervorgerufen werden. Dieses Modell von NeuroHIV (HIVgp120tg-Maus) liefert ein beobachtbares Ergebnis aus den manuellen Zählungen, einen Anstieg der Mikroglia in Gegenwart von HIVgp120 (im Folgenden als „aktiviert“ bezeichnet) im Vergleich zum Fehlen des viralen Proteins (nicht-transgene Wurfgeschwisterkontrolle, im Folgenden als „aktiviert“ bezeichnet). Ausruhen). ACCT wurde verwendet, um den Unterschied in der Anzahl der Mikrogliazellen gegenüber den in Abb. 2 dargestellten Bildern zu bewerten. Damit eine automatische Zählmethode in einem experimentellen Kontext effektiv ist, muss sie in der Lage sein, die aus den experimentellen Bedingungen resultierende Variabilität in der Datenpräsentation zu berücksichtigen6. Es ist bekannt, dass Mikroglia während der Aktivierung morphologische Veränderungen erfahren, die ihre Morphologie und ihr Aussehen verändern, wenn sie durch Immunfluoreszenzfärbung abgebildet werden7,8. Wir konzentrieren uns auf einen Datensatz von Bildern von Zellen, die immunfluoreszenzmarkiert sind für das ionisierte Calcium-bindende Adapterprotein-1 (Iba-1), einen zelltypspezifischen Marker, der die Visualisierung von Mikroglia ermöglicht. Die Methodik und die begleitenden Skripte ermöglichen jedoch die automatische Quantifizierung von Zellen in einer Vielzahl von Bildgebungskontexten.

Der zweite verwendete Datensatz ist ein öffentlich verfügbarer Satz von Bildern monosynaptischer retrograder Tracer-gefärbter Neuronen bei 200-facher Vergrößerung (Abb. 3). Dieser Datensatz, den wir als Fluocell-Datensatz bezeichnen, wurde bei der Generierung neuer Ergänzungen zum neuronalen U-Net-Netzwerk für die Zellsegmentierung verwendet9,10. Daher testet unsere Studie die Gültigkeit von ACCT anhand eines anderen veröffentlichten Datensatzes.

Die Existenz von Softwaretools für den Einsatz in den Biowissenschaften führt nicht zwangsläufig zu einer Funktionsverbesserung11. Das für den effektiven Betrieb neuer Softwaretools erforderliche technische Wissen kann aufgrund ihrer Zugänglichkeit Hindernisse für neuartige Methoden schaffen. Das Ziel von ACCT besteht darin, die Eintrittsbarriere für die Durchführung vollständiger halbüberwachter Bildgebungsstudien zu verringern. ACCT bietet die Tools, um das Fachwissen der Benutzer bei der manuellen Erstellung von Trainingsdaten zu nutzen, und stellt gleichzeitig quantitative Tools bereit, um die Trainingsgenauigkeit anhand verschiedener Ansätze effizient zu bewerten. Durch die Reduzierung der Programmierkenntnisse, die Benutzer mit GUI-Elementen benötigen, erhöht ACCT die Zugänglichkeit der automatischen Zellzählung. Darüber hinaus führt ACCT eine statistische Analyse der gezählten Bilder durch, was den technischen Aufwand reduziert und zusätzlich die Zugänglichkeit des Tools erhöht.

Es gibt viele Möglichkeiten, ein Bildsegmentierungsproblem zu lösen. Bei diesem komplexen Problem geht es darum, jedem Pixel in einem Bild eine geeignete Beschriftung zuzuweisen. Das von uns verwendete TWS-Programm ist nur eines von mehreren Softwaretools, darunter Implementierungen für maschinelles Lernen wie Ilastik12 und neuronale Netze wie U-Net, ResUNet und c-ResUnet9,13,14.

Wir haben uns für die Arbeit mit TWS4 anstelle von Ilastik12 entschieden, da die standardmäßig verfügbaren Funktionen größer sind und die Integration mit Fiji und ImageJ die automatisierte Bildverarbeitung und -analyse optimiert. Durch die Integration mit ImageJ ist TWS für dieses und zukünftige automatische Imaging-Tools zugänglicher geworden.

Während Programme wie TWS und Ilastik eine hervorragende Pixelsegmentierung mit einer zugänglichen Schnittstelle bieten, besteht zusätzlich die Notwendigkeit, Genauigkeit und Leistung auf Zellenebene und nicht auf Pixelebene zu bewerten. ACCT bietet Benutzern ein Framework, mit dem sie dies mit minimaler Dateimanipulation in der Befehlszeile erreichen können. Bei der Segmentierung von Ilastik werden Modelle nicht anhand einer Validierungsphase nach dem Training ihres maschinellen Lernmodells getestet, was das Risiko einer Überanpassung an den Trainingsdatensatz erhöht. Daher vergleichen wir in unserer Studie die Leistung von Ilastik mit ACCT.

Darüber hinaus vergleichen wir die Leistung von ACCT mit CellProfiler, einem häufig für die Bildanalyse verwendeten Tool, mit dem Benutzer modulare Pipelines erstellen können15. Dieses Tool ermöglicht eine Segmentierung auf Pixelebene, bietet jedoch ohne das Begleittool CellProfiler Analyst16 keine automatisierte Zellzählung mit Modellen für maschinelles Lernen. Allerdings erfordert CellProfiler Analyst von den Benutzern, dass sie Text- und Datenbankdateien in SQL manuell ändern, was Benutzerkenntnisse über Code-Editoren erfordert. Aus diesem Grund vergleichen wir nicht mit CellProfiler Analyst.

Schließlich ist ResUNet ein Convolutional Neural Net-Ansatz (CNN) zur Bildsegmentierung und dient als allgemeines Werkzeug zur Bildkennzeichnung. Es wurde gezeigt, dass Trainingsdaten effektiv genutzt werden können, um eine genaue Zellsegmentierung auf Bildern mit einer großen Varianz in der Anzahl der Zellen sowie dem Vorhandensein von Nicht-Zell-Artefakten durchzuführen. Hierbei handelt es sich um eine Entwicklung von U-Net, die sich bei der Zählung großer Mengen von Zellen in einer Vielzahl von Zusammenhängen als effektiv erwiesen hat. Darüber hinaus ist c-ResUnit eine Erweiterung von ResUNet9. Allerdings erfordern CNN-Modelle eine hohe Rechenleistung, um in angemessener Zeit Ergebnisse zu generieren, was möglicherweise den Zugriff auf teure Rechenzentren erfordert. ACCT ist so konzipiert, dass es auf handelsüblichen Consumer-Laptops und -Computern effizient funktioniert.

Ein visueller Überblick über ACCT-Komponenten und -Prozesse. (A) Weka und eine Reihe von Trainingsbildern werden verwendet, um durch iteratives Training mehrere Klassifikatoren zu erstellen. (B) Diese Klassifikatoren werden dann in großen Mengen anhand von Validierungsbildern ausgewertet und der beste Klassifikator wird vom Benutzer ausgewählt. (C) Der ausgewählte Klassifikator wird auf den experimentellen Datensatz zur Zellquantifizierung angewendet, wodurch ein Satz gezählter Bilder und die Anzahl der Zellen in jedem Bild sowie Informationen über die Zellmorphologie erstellt werden. Zu diesen Informationen gehören Fläche, Position, minimale und maximale Intensität, Zirkularität, Schräge und weitere Details zu jeder Zelle, die auf GitHub im Abschnitt „Datenverfügbarkeit“ verfügbar sind.

Ein Datensatz bestehend aus Bildern von Iba-1-positiven Mikrogliazellen wurde nach kürzlich von unserer Gruppe veröffentlichten Verfahren erstellt17. Kurz gesagt, der Datensatz wurde aus Hirnschnitten eines Modells für HIV-induzierte Hirnschädigung (HIVgp120tg) abgeleitet, das lösliches gp120-Hüllprotein in Astrozyten unter der Kontrolle eines modifizierten GFAP-Promotors exprimiert5. Die Mäuse hatten einen gemischten genetischen Hintergrund aus C57BL/6.129/SJL und es wurden zwei Genotypen von 9 Monate alten männlichen Mäusen ausgewählt: Wildtyp-Kontrollen (ruhend, n = 3) und transgene Wurfgeschwister (HIVgp120tg, aktiviert, n = 3). Es wurde keine Randomisierung durchgeführt. HIVgp120tg-Mäuse zeigen neben anderen Merkmalen der menschlichen HIV-Neuropathologie einen Anstieg der Mikroglia-Zahlen, was auf eine Aktivierung der Zellen im Vergleich zu nicht-transgenen Wurfgeschwister-Kontrollen hinweist17. Alle experimentellen Verfahren und Protokolle mit Tieren wurden in Übereinstimmung mit den Richtlinien der National Institutes of Health (NIH) durchgeführt und von den Institutional Animal Care and Use Committees (IACUC) des Sanford Burnham Prebys Medical Discovery Institute (SBP) und des Scripps Research Institute genehmigt ( TSRI) und der University of California Riverside (UCR). Die Studie folgt den ARRIVE-Richtlinien.

Die Verfahren zur Hirngewebeentnahme, Immunfluoreszenzfärbung und Mikroskopie von Mikroglia wurden in einer aktuellen Veröffentlichung unserer Gruppe17 beschrieben. Kurz gesagt, Mäuse wurden am Ende mit Isofluran betäubt und transkardial mit (0,9 %) Kochsalzlösung perfundiert. Die Gehirne der Mäuse wurden entnommen und 72 Stunden lang bei \(4^{\circ }\hbox {C}\) in \(4\%\) Paraformaldehyd17 fixiert. Gehirnschnitte wurden unter Verwendung eines Vibratoms (Leica VT1000S, Leica Biosystems, Buffalo Grove, IL) und der Großhirnrinde in 40 \(\upmu \hbox {m}\) dicken Sagittalschnitten im Abstand von 320 \(\upmu \hbox {m}\ erhalten. ) von medial nach lateral von den Gehirnen jedes Genotyps entfernt. Die Färbung wurde mit antiionisiertem Calcium-bindendem Adaptermolekül 1 (Iba-1) IgG vom Kaninchen (1:125; Wako) mit sekundärem Antikörper Fluoresceinisothiocyanat (FITC) durchgeführt. Zur Quantifizierung der Iba-1-gefärbten Mikroglia wurden die Zellkörper in der Großhirnrinde aus drei Sichtfeldern für jeweils drei Schnitte pro Tier gezählt. Pro Sichtfeld wurden zwischen 2 und 3 Bilder aufgenommen, um so viele Zellen wie möglich in ausreichender Fokussierung für die Identifizierung einzufangen. Die Mikroskopie wurde mit einem Zeiss 200 M Fluoreszenz-Entfaltungsmikroskop mit computergesteuertem 3D-Tisch und FITC-Filter durchgeführt. Alle Bilder wurden mit der Slidebook-Software (Version 6, Intelligent Imaging Innovations, Inc., Denver, CO) gesammelt. Die Bilder wurden mit 10-facher Vergrößerung und einer Pixelauflösung von 1280 x 1280 aufgenommen und auf eine Fläche von 1280 x 733 Pixel zugeschnitten, um unregelmäßige Gewebekanten auszuschließen. Repräsentative Beispiele sind in Abb. 2 dargestellt.

Bilder von immunfluoreszenzmarkierten Mikroglia vor und nach der Segmentierung. Ein Beispiel für verarbeitete gepaarte Bilder von Iba-1-immunmarkierten Mikroglia in der Großhirnrinde (Schicht III; oberes Feld) von nicht-transgenen Wildtyp-Mäusen („Ruhend“) und von HIVgp120tg-Mäusen („Aktiviert“) sowie die dazugehörige endgültige Segmentierung Über ACCT generierte Bilder (unteres Feld). Die resultierenden Objektsegmentierungen sind farblich gekennzeichnet (blau = richtig positiv, rot = falsch positiv, gelb = falsch negativ). Segmentierte Objekte aus Bildern im gleichen Sichtfeld wurden mit einem Größenausschluss von mindestens 50 Pixeln zur Zählung projiziert. Immunfluoreszenzfärbung und Bildaufnahme werden in früheren Veröffentlichungen und im Abschnitt „Methoden“17 beschrieben. Maßstabsleiste: 100 \(\mu m\).

Manuelle Zählungen wurden von drei Beobachtern durchgeführt, denen die Möglichkeit gegeben wurde, die Bildhelligkeit anzupassen, um die Zählgenauigkeit bestmöglich zu gewährleisten. Die Bilder wurden als Z-Stapel gesammelt, der aus zwei bis drei Fokusebenen im Abstand von 0,5 \(\upmu \hbox {m}\) pro Feld besteht, um dem Beobachter die Bestätigung des Vorhandenseins von Iba-1-positiven Zellkörpern zu ermöglichen nur teilweise im Fokus. Die Ebene, die die meisten Zellen im Fokus zeigt, wurde als primäre Ebene für die Zählung verwendet. Die Beobachter verwendeten beim Zählen unterschiedliche Visualisierungssoftware. Beobachter A verwendete die Slidebook-Software (Intelligent Imaging Innovations, Denver, CO) gepaart mit dem Mikroskop und Beobachter B und C verwendeten die Fidschi-Distribution von ImageJ 2.1.0 für die manuelle Zählung. Darüber hinaus wurde die Zählung durch Beobachter A vor Beginn dieses Projekts durchgeführt und Zählmarkierungen wurden auf den Bildern in unmittelbarer Nähe der Zellkörper angebracht, um eine schnelle Gesamtsummierung zu ermöglichen. Beobachter B und C platzierten Zählungen innerhalb der Zellkörper, um eine spätere Genauigkeitsbewertung auf Zellebene zu ermöglichen. In Fällen, in denen ein Teil des Bildbereichs aufgrund von Gewebeschäden oder Unregelmäßigkeiten in der Dicke für die Zellerkennung ungeeignet war, wurden die Mikroglia-Zählungen auf die Fläche normalisiert (n = 3 Bilder von insgesamt 62 in der Studie).

Bild fluoreszenzmarkierter Neuronen vor und nach der Segmentierung. Ein zugeschnittenes Bild aus dem Fluocell-Datensatz gepaart mit Zellsegmentierung (a). Dies zeigt segmentierte Zellobjekte aus dem Bild \(\hbox {MAR38S1C3R1}\_\hbox {DMR}\_20\_\hbox {o}\), das im öffentlich verfügbaren Fluocell-Datensatz gemeldet wurde, segmentiert nach c-ResUnet10 (b) und ACCT mit classifierBayes3 (c). Die resultierenden Objektsegmentierungen sind farblich gekennzeichnet (blau = richtig positiv, rot = falsch positiv, gelb = falsch negativ). ACCT wurde so eingestellt, dass es Objekte herausfiltert, die kleiner als 250 Pixel und größer als 5000 Pixel sind, um Rauschen zu entfernen. Wir haben den Watershed-Algorithmus auf diesen Datensatz angewendet. ACCT identifizierte 84,6 % der Handzählungen in diesem Bild korrekt und c-ResUnet 86,2 %, während ACCT bei 86,9 % aller Vorhersagen korrekt war und c-ResUnet bei 93,3 %. Maßstabsleiste: 50 \(\mu m\).

Um die Wirksamkeit von ACCT anhand verschiedener Daten weiter zu untersuchen und weiterzuentwickeln, führten wir außerdem eine Zellzählstudie mit einem öffentlich verfügbaren Bildsatz durch9,10. Die 283 Bilder mit 1600 x 1200 Pixeln wurden bei 200-facher Vergrößerung von 35 \(\upmu \hbox {m}\) dicken Schnitten von Maushirngewebe mit Neuronen aufgenommen, die über einen monosynaptischen retrograden Tracer (Choleratoxin b, CTb) gefärbt wurden. Dieser Tracer markierte nur Neuronen, die mit der Toxin-Injektionsstelle verbunden waren.

Dieser Datensatz enthält Bilder mit hoher und niedriger Zelldichte sowie unterschiedlichem Rauschen und Artefakten (ergänzende Abbildung S2). Wir haben auch beobachtet, dass viele Bilder überlappende oder sich berührende Zellen enthalten. Der Fluocell-Datensatz stellt andere Herausforderungen dar als unser Iba-1-positiver Mikroglia-Datensatz, bei dem die Zellen gleichmäßiger verteilt sind und die Anzahl der Zellen pro Bild konsistenter ist. Ein repräsentatives Beispiel für Fluocell-Daten ist in Abb. 3 dargestellt.

Bei der Fluocell-Analyse dieser Daten wurde eine Teilmenge der Bilder von den Autoren manuell gezählt, und die übrigen Bilder wurden über automatisches Schwellenwertverfahren gezählt9. Da wir ACCT mit der Anzahl der vom Menschen platzierten Zellen vergleichen möchten, um die Leistung unseres Tools im Vergleich zur menschlichen Zellzählung zu bewerten, haben wir den gesamten 283-Bilddatensatz (ein Beobachter) manuell gezählt. Dies ermöglicht es uns, unser Tool anhand manueller Beobachterzellzählungen zu validieren, anstatt einen anderen automatischen Prozess durchzuführen. Darüber hinaus haben die Autoren des Fluocell-Datensatzes ihr eigenes automatisiertes Zellzählprogramm geschrieben, das einen CNN-Ansatz namens c-ResUnet verwendet, der auf ResUNet9 aufbaut. Daher vergleichen wir auch die Leistung von ACCT im Vergleich zu c-ResUnet und Ilastik im Fluocell-Datensatz mit unseren manuellen Zählungen. Wir erkennen an, dass möglicherweise bessere Klassifikatoren für Ilastik und CellProfiler für unseren Datensatz generiert werden können. Wir sind jedoch der Ansicht, dass diese Programme nicht über die Funktionalität verfügen, mit der Benutzer mehrere Klassifikatoren in großem Maßstab generieren und bewerten können. Daher haben wir für diese Programme weniger Klassifikatoren generiert und während des Trainings den optimalen Klassifikator ausgewählt.

ACCT ist Open Source und auf GitHub unter https://github.com/tkataras/Automatic-Cell-counting-with-TWS.git verfügbar. Unser Klassifikator für maschinelles Lernen wurde mit dem TWS-Plugin Version 3.2.34 in ImageJ 2.1.0 erstellt, das in der Fidschi-Distribution enthalten ist18. Darüber hinaus wurden in ACCT19,20,21,22,23,24 die Open-Source-Python-Pakete scipy, pandas, numpy, matplotlib, imageio und scikit-learn verwendet.

ACCT ermöglicht die Auswahl verschiedener Arten von Ansätzen für maschinelles Lernen. Unter maschinellem Lernen versteht man hier dynamische Modelle, die anhand benutzerdefinierter Eingabedaten trainiert werden, um Zellpixel in einem Bild auszuwählen. Auf Wunsch können Benutzer auch weitere mit Weka kompatible Ansätze für maschinelles Lernen hochladen. Für dieses Papier verwenden wir eine Implementierung des Random Forest-Ansatzes namens Fast Random Forest4,25. Dies ist der Standardansatz für maschinelles Lernen in TWS und die folgenden Standardfunktionen wurden verwendet:

Gaußsche Unschärfe

Sobel-Filter

Hessisch

Unterschied von Gauß

Membranprojektionen

Membrandicke = 1

Membranpflastergröße = 19

Minimales Sigma = 1,0

Maximales Sigma = 16,0

Wir verwenden zusätzlich ein Bayesian Network-Modell, das auch in Weka4 implementiert ist. Dieser als BayesNet bezeichnete Ansatz folgt einem bayesianischen statistischen Modell, um die Wahrscheinlichkeit zu bestimmen, dass beobachtete Merkmale bedingt vom interessierenden Objekt abhängig sind oder durch dieses verursacht werden26. Für diese Studie verwenden wir zusätzlich zu den oben aufgeführten Merkmalen die folgenden Parameter für die Bayes'sche Pixelklassifizierung:

Varianz

Bedeuten

Minimum

Maximal

Median

Anisotrope Diffusion

Bilateral

Lipschitz

Kuwahara

Gabor

Entropie

Nachbarn

Bei der Zellerkennung können kleine und große zelluläre Prozesse oder Artefakte als Zellkörper klassifiziert werden, wenn ihnen das Aussehen von Zellen ausreichend ähnlich ist. Wir bekämpfen dieses Rauschen, indem wir beim Zählen von Zellen einen Parameter für die minimale und maximale Zellobjektgröße implementieren. Daher werden Objekte außerhalb des angegebenen Größenbereichs von der automatischen Zählung ausgeschlossen. Dieser Bereich wird empirisch durch beobachtete Zellkörper während des Modelltrainings und der Modellvalidierung bestimmt.

Eine zusätzliche Herausforderung für die Zellerkennung besteht dann, wenn zwei oder mehr Zellen aneinandergrenzen oder sich überlappen. Dadurch werden mehrere Zellen als eine große Zelle identifiziert, sodass ACCT diese Objekte trennen muss, um die Genauigkeit zu erhöhen. Daher aktivieren wir optional einen Watershed-Algorithmus nach der Pixelsegmentierung27. Dieser Algorithmus wird verwendet, um Objekte nach Kontur zu trennen, wodurch getrennte Objekte unabhängig gezählt werden können. Wir verwenden die Standardimplementierung des in ImageJ27 bereitgestellten Watershed-Algorithmus. Wir verwendeten die Wassereinzugsgebietssegmentierungsstrategie im Fluocell-Datensatz, der eng gruppierte Zellen enthielt, und verglichen die Leistung von ACCT mit und ohne Wassereinzugsgebiet, um die Wirkung des Algorithmus in der ergänzenden Abbildung S3 zu demonstrieren.

Die maschinellen Lernmodelle in TWS generieren für jedes Bild eine Wahrscheinlichkeitskarte, die jedes Pixel im Bild als Wahrscheinlichkeit darstellt, dass es Teil eines interessierenden Objekts ist. Diese Wahrscheinlichkeit wird mit einem Konfidenzschwellenwert verglichen, der die Mindestwahrscheinlichkeit darstellt, die ein Pixel haben muss, um als Teil eines Objekts betrachtet zu werden. Der Benutzer kann verschiedene Schwellenwerte festlegen, die sich darauf auswirken, wie konservativ oder liberal das Programm bei der Identifizierung von Objekten vorgeht. Standardmäßig beginnt ACCT bei einem Schwellenwert von 0,5, der von Benutzern über die Benutzeroberfläche geändert werden kann. Herkömmlicherweise führen strengere Schwellenwerte zu weniger Falsch-Positiv-Ergebnissen, aber auch zu weniger Echt-Positiv-Ergebnissen. Das Umgekehrte gilt auch für einen gelockerten Schwellenwert, der mehr richtig positive, aber auch mehr falsch positive Ergebnisse identifiziert. Die Leistung von ACCT bei verschiedenen Schwellenwerten wird visuell auf einer ROC-Kurve (Receiver Operator Characteristic) dargestellt. Allerdings geben einige Modelle, die mit TWS in ACCT verwendet werden können, nur eine binäre Null oder Eins für ihre Konfidenzwerte an, was die Generierung aussagekräftiger ROC-Kurven verhindert.

Das Training des Iba-1-Mikroglia-Datensatzes wurde aus 10 zufällig ausgewählten Bildern durchgeführt, die nicht in der Zählanalyse verwendet wurden. Diese Bilder wurden mit den oben beschriebenen Methoden von Mäusen gesammelt, die gleichmäßig auf die experimentellen Genotypen verteilt waren (Abb. 2). Wir weisen darauf hin, dass ACCT derzeit nur Einkanalbilder und nicht Mehrkanalbilder verarbeiten kann. Inkrementelle Anpassungen der Trainingsdaten und die daraus resultierende sich ändernde Pixelklassifizierung wurden in Echtzeit beobachtet und die Klassifikatoren wurden nacheinander gespeichert.

Um ein Übertraining zu vermeiden, werden Klassifikatoren jeweils um einige Pixel mit neuen Trainingsdaten aktualisiert und die aktualisierten Pixelsegmentierungen der Trainingsdaten werden sofort in TWS beobachtet. Nachfolgende Trainingsdaten werden ausgewählt, um Bereiche mit falscher Segmentierung zu beheben. Wir setzen dies über aufeinanderfolgende Iterationen von Klassifikatoren fort und speichern nach jeder Hinzufügung von Trainingsdaten eine Version des Klassifikators. Dieses iterative Klassifikator-Erstellungsschema wird fortgesetzt, bis der Klassifikator die Daten scheinbar nicht mehr verbessert. ACCT führt dann eine Genauigkeitsbewertung der Validierungsdaten und Ground-Truth-Marker durch und berücksichtigt dabei die experimentellen Bedingungen, um dem Benutzer bei der Auswahl der Klassifikationsiteration mit der größten Genauigkeit und Konsistenz im gesamten Validierungsdatensatz zu helfen.

Diese Strategie wurde angewendet, um mehrere sequentielle Klassifikatoren zu erstellen, die anschließend auf den Validierungsdatensatz angewendet wurden (Abb. 1, ergänzende Abb. S1). Letztendlich wurden 25 sequentielle Klassifikatoren anhand der Iba-1-Mikroglia-Daten trainiert. Der Iba-1-Mikroglia-Validierungsdatensatz bestand aus 10 Bildern (Ruhe n = 5, Aktiviert n = 5) aus dem Hauptdatensatz, der dann von allen weiteren Analysen ausgeschlossen wurde. In diesen Bildern wurden von Beobachter B zellkörperspezifische Zählmarker platziert und die Leistung anhand von Präzision, Erinnerung, F1-Score, Genauigkeit sowie einem Student-T-Test zur Differenzgenauigkeit zwischen den ruhenden und aktivierten Bildern berechnet. ACCT ist auch in der Lage, ANOVA-Berechnungen für weitere Analysen durchzuführen, die mehr als zwei Versuchsgruppen umfassen.

In den Fluocell-Daten wurden 10 Trainingsbilder aus dem Datensatz ausgewählt, um die Vielfalt der Segmentierungsherausforderungen innerhalb des Datensatzes darzustellen: stark variable Intensität, stark variable Zelldichte, überlappende Zellbilder und Bilder mit Nicht-Zell-Artefakten. Der Validierungsdatensatz wurde mit einem anderen Satz von 10 Bildern erstellt, die ausgewählt wurden, um eine ähnliche Verteilung der Herausforderungen darzustellen.

Echte positive Bewertungen für jedes Bild werden durch die Lokalisierung manueller Zählmarkierungen ermittelt, die für den automatischen Zählvorgang mit den Pixelpositionswerten jedes Objekts verglichen werden. Falsch positive Ergebnisse für jedes Bild werden als Gesamtzahl der automatisch generierten Zellobjekte dargestellt, die keine einzige manuelle Zählung enthalten. Falsch-Negative für jedes Bild werden durch die Gesamtzahl der manuellen Zählmarkierungen bestimmt, die nicht in einem vom Programm automatisch generierten Objekt enthalten sind, plus der Anzahl der manuellen Zählmarkierungen in einem einzelnen Zellenobjekt, die über eins hinausgehen, was auf ein unzureichendes Objekt hinweist Trennung. Da wir die Genauigkeit anhand der Zellposition beurteilen und nicht zwischen Hintergrundpixeln unterscheiden, umfasst ACCT nicht die Bestimmung tatsächlich negativer Zellpositionen. Diese Methode wurde von Morelli et al.9 verwendet und wir berechnen die Genauigkeit als \(\frac{TP}{TP + FP + FN}.\)

Wir bewerten die Leistung unserer Klassifikatoren anhand von Maßen für Präzision, Rückruf, F1-Score und Genauigkeit. Präzision ist der Anteil der automatischen Zählungen, die basierend auf manuell platzierten Markern korrekt sind, und Recall ist der Anteil der gesamten manuell platzierten Zellmarker, die durch die automatische Zählung erfolgreich identifiziert wurden. Der F1-Score ist der harmonische Durchschnitt aus Präzision und Erinnerung. Die Genauigkeit wird insbesondere als Anzahl der wirklich positiven Zellzählungen im Verhältnis zu allen manuellen und automatischen Zählungen, einschließlich falsch negativer Zellen, bewertet. Durch automatisch berechnete statistische Analysen können mehrere Klassifikatoren ausgewertet werden. Statistische Maße wie der mittlere absolute Fehler (MAE) werden zusätzlich durch ACCT berechnet, um die Leistung verschiedener Klassifikatoren zu bewerten. Wir haben diese Statistiken verwendet, um die Leistung von ACCT im Vergleich zu anderen automatischen Zellzähltools auf der Grundlage dieser Metriken zu bewerten.

Diese statistischen Informationen sind in den Abbildungen dargestellt. 4 und 9. Abbildung 4 ist eine Teilmenge der vollständigen Daten, die in der Ergänzungstabelle 1 zu finden sind. Abbildung 9 zeigt ausgewählte Genauigkeitsstatistiken bei verschiedenen Konfidenzschwellen. Die Auswahl des Klassifikators anhand des besten F1-Scores oder einer unterschiedlichen Gewichtung von Präzision und Rückruf sind gültige Metriken für die Auswahl eines Klassifikators. Für diese Studie haben wir jedoch den Klassifikator basierend auf dem höchsten F1-Score ausgewählt.

Zusammenfassung der Leistung einzelner Klassifikatoren im Iba-1-Mikroglia-Datensatz während der Validierungsphase. Ein Diagramm der drei inkrementell trainierten Klassifikatoren mit der höchsten und der ungenauesten Genauigkeit, geordnet nach dem F1-Score von 25 trainierten Klassifikatoren (n = 10 Bilder). Fehlerbalken stellen den Standardfehler des Mittelwerts der berechneten Leistungsstatistiken für jedes Bild dar, wobei die Statistik selbst aus der Gesamtzahl der Zellen im Datensatz berechnet wird. Die in ACCT verwendeten Parameter: 0,5-Schwellenwert, 50 minimale Pixelgröße und 1.000 maximale Pixelgröße.

Im nächsten Schritt wird der ausgewählte Klassifikator auf den experimentellen Bilddatensatz angewendet. Dieser experimentelle Datensatz schließt Bilder aus, die für Training und Validierung verwendet werden. Die automatisierte Zählmethode wird in dieser Analyse wiederholt und meldet die Gesamtzahl der gezählten Zellen zusätzlich zu anderen statistischen Informationen pro Bild. Morphologische Informationen zu jeder identifizierten Zelle werden von ACCT an Benutzer gemeldet. Ein Beispiel hierfür finden Sie in der Ergänzungstabelle 2, in der einige der gemeldeten morphologischen Informationen aufgeführt sind, die aus der Analyse stammen.

Darüber hinaus bieten wir Benutzern die Möglichkeit, die Leistung ihres ausgewählten Klassifikators zu überprüfen. Das Audit erfordert eine weitere manuelle Zählung und ist identisch mit der Art und Weise, wie wir die Leistung von Klassifikatoren während der Validierungsphase bewerten. Mit diesem Schritt soll ermittelt werden, wie ähnlich die Leistung des Klassifikators am experimentellen Datensatz im Vergleich zum Validierungssatz in Situationen war, in denen nicht alle Bilder manuell gezählt wurden. Die Prüfung kann anhand einer Teilmenge des experimentellen Datensatzes oder sogar des gesamten Datensatzes durchgeführt werden, wenn der Benutzer sich dafür entscheidet, eine vollständige manuelle Zählung durchzuführen, um die Modellgenauigkeit zu bewerten. Diese Bilder werden als Prüfsatz bezeichnet. Wir haben nach dem Zufallsprinzip jeweils 5 Bilder von aktivierten und ruhenden Mikroglia-Versuchsbildern für den Iba-1-Prüfsatz ausgewählt. Eine Prüfung der Fluocell-Daten wurde anhand einer Stichprobe von 10 Bildern aus dem experimentellen Fluocell-Datensatz durchgeführt (Abb. 5).

Alle statistischen Tests an Iba-1-Mikroglia-Bildern umfassen alle Bilder mit Ausnahme derjenigen, die für Training und Validierung verwendet werden (Ruhe n = 22, aktiviert n = 20). Wir berichten über die automatische Zählung von Klassifikator 10 anstelle von Klassifikator 4, da Klassifikator 10 die maximale Leistung für den von uns beobachteten experimentellen Datensatz und Prüfsatz erbrachte. Der signifikante Anstieg der Mikroglia-Dichte in Bildern von gp120-positiven (aktivierten) Mäusen war im gesamten Datensatz über eine Zwei-Wege-ANOVA konsistent (\(\hbox {p} = 3,39E^{-16}\); Ruhen n = 22, Aktiviert n = 20) (Abb. 6).

Unter Berücksichtigung der Genotypvarianz innerhalb des Datensatzes wurden keine signifikanten Unterschiede zwischen der ACCT-Anzahl und den Beobachtern gefunden (Beobachter A p = 0,060; Beobachter B p = 0,514; Beobachter C p = 0,440). Darüber hinaus zeigte die Mikroglia-Dichte pro Bild signifikante Korrelationen zwischen der automatischen Zählung und allen Beobachtern mit stärkeren Korrelationen in ruhenden Mikroglia-Bildern (Abb. 5).

Das Folgende stellt die Gesamtzahl der Zellen dar:

Validierung: Observer A/B 1263/1380 Zellen über 10 Bilder.

Experimenteller Datensatz: Beobachter A/B/C 5158/5035/5056 Zellen über 42 Bilder.

Prüfsatz: Beobachter A/B/C 1239/1207/1262 Zellen über 10 Bilder.

Korrelationsanalyse von Streudiagrammen der Mikrogliadichte mit Regressionslinien für alle korrelativen Vergleiche zwischen Beobachterzählungen und der automatischen Zählung aus Klassifikator 10 für den experimentellen Datensatz. Alle Beziehungen zeigten signifikante, positive Gesamtkorrelationen (p und Adj. \(R^{2}\) = in den Abbildungen enthaltene Werte; \(\hbox {n}=42\)).

Mittlere Mikrogliadichte nach experimentellem Genotyp in manuellen und automatisierten Zählungen. Alle Zählmethoden ergaben einen Anstieg der Mikroglia-Dichte in Bildern aktivierter Mikroglia mittels Zwei-Wege-ANOVA mit Interaktionseffekt und Tukey-HSD-Post-hoc-Analyse. Der Unterschied zwischen Zählmethode und Interaktionseffekt zeigte keine statistische Signifikanz. (Genotyp: p = \(3.39E^{-16}\); Zählmethode: p = 0,096; Genotyp: Zählmethode: p = 0,224; Ruhen n = 22, Aktiviert n = 20). Es gab keine signifikanten Unterschiede zwischen der automatischen Zählung und den Beobachtern B und C. Die ACCT-Zähldichte war jedoch insgesamt tendenziell niedriger als die der Beobachter A (p = 0,0599; ruhend n = 22, aktiviert n = 20). Dies deutet darauf hin, dass Klassifikator 10 möglicherweise einige schwach gefärbte oder nicht gut fokussierte Zellen in den Bildern der Ruhegruppe ausgeschlossen hat, die Beobachter A gezählt hat. Fehlerbalken stellen die Standardabweichung dar.

Die durch die TWS-Methodik erreichte Gesamtpräzision und der Rückruf waren im Validierungsdatensatz, im experimentellen Datensatz und im Prüfdatensatz ähnlich, wobei die Gesamtgenauigkeit und F1 im experimentellen Datensatz im Vergleich zur Validierung zunahmen, wie für Klassifikator 10 in Abb. 7 gezeigt. Allerdings innerhalb der Im experimentellen Datensatz war der TWS-Klassifikator in den ruhenden Bildern konservativer als bei den manuellen Zählungen von Beobachter B, wobei die automatische Zählung in Bildern ruhender als aktivierter Proben eine höhere Präzision aufwies (Präzision p = 0,007477) (Abb. 7). Im Vergleich zu Ilastik und CellProfiler zeigte ACCT in jedem Satz von Iba-1-Bildern eine ähnliche und etwas stärkere Leistung als beide Tools, wobei Ilastik CellProfiler leicht übertraf. Darüber hinaus haben wir diese Tools mit grundlegenden Funktionen verglichen, die Benutzer in Fidschi manuell auswählen können, um zu veranschaulichen, wie ACCT auf der vorhandenen Fidschi-Funktionalität aufbaut. Für diese Analyse haben wir in Fidschi die Werkzeuge „Hintergrund subtrahieren mit rollender Kugel und Schwellenwert anpassen“ verwendet, mit Hintergrundsubtraktion bei einer Fläche von 25 Pixeln und einem Pixelintensitätsschwellenwert von 90. Ohne Anwendung der minimalen und maximalen Objektgröße ergab diese Analyse eine Genauigkeit von nahezu 0, daher haben wir sie verwendet eine minimale Pixelgröße von 50 und eine maximale Pixelgröße von 1000 wie bei den anderen Tools. Classifier 10 übertrifft die grundlegenden Fiji-Tools in den meisten Metriken, mit Ausnahme der Präzision. Die grundlegende Fiji-Anwendung übertrifft Ilastik und CellProfiler in den meisten Metriken in den Iba-1-Bildern ebenfalls knapp.

ACCT vs. Ilastik vs. CellProfiler vs. Basic Fiji auf Bildern von Iba-1-positiven Mikroglia. Die Leistung des ACCT-Klassifikators 10 im Vergleich zu Ilastik, CellProfiler und die grundlegende Verwendung von Fiji-Tools. Der Prüfsatz ist eine Auswahl von 10 Bildern, die der Größe des Validierungsbildsatzes entspricht, aus dem experimentellen Datensatz ausgewählt und gleichmäßig auf die experimentellen Gruppen verteilt wird. Fehlerbalken stellen den Standardfehler des Mittelwerts der berechneten Leistungsstatistiken für jedes Bild dar, wobei die Statistik selbst aus der Gesamtzahl der Zellen im Datensatz berechnet wird. Die von ACCT in dieser Analyse verwendeten Parameter waren: ein Schwellenwert von 0,5, eine minimale Pixelgröße von 50 und eine maximale Pixelgröße von 1.000 für Objekte.

Im Gegensatz zum Iba-1-Mikroglia-Datensatz vergleicht der Fluocell-Datensatz nicht zwei verschiedene Versuchsbedingungen. Alle statistischen Fluocell-Tests umfassen alle Fluocell-Bilder mit Ausnahme derjenigen, die für Training und Validierung verwendet werden (n = 263). In Abb. 8 haben wir die Leistung der in ACCT implementierten Fast Random Forest- und BayesNet-Modelle mit der c-ResUnet-, Ilastik- und grundlegenden Fiji-Nutzung verglichen9,12. Abbildung 8 zeigt, dass ClassifierRandomForest3 BayesNet bei den meisten statistischen Metriken übertrifft. Darüber hinaus schnitt das c-ResUnit-Modell im Vergleich zu diesen beiden Klassifikatoren bei den meisten Metriken besser ab. Im Gegensatz zu den anderen Tools weist Ilastik in den experimentellen und Audit-Datensätzen eine viel höhere Erinnerung als Präzision auf, wobei ACCT und c-ResUnit in puncto Präzision besser abschneiden. Allerdings hat Ilastik den höchsten F1-Score im experimentellen Datensatz. Die grundlegende Fidschi-Methodik hatte mit den gleichen Problemen zu kämpfen wie die anderen Klassifikatoren: Mit höherer Präzision und geringerem Rückruf lieferte sie eine vergleichbare Genauigkeit wie die ACCT-Klassifikatoren im experimentellen Datensatz. Für einfaches Fidschi haben wir die Hintergrundsubtraktion bei einer Fläche von 50 Pixeln und einem Pixelintensitätsschwellenwert von 70 verwendet. Im Kontext dieses Datensatzes stellt das Folgende die Gesamtzellenzahl dar:

Validierung: 137 Zellen über 10 Bilder.

Experimenteller Datensatz: 3307 Zellen über 263 Bilder.

Prüfsatz: 247 Zellen über 10 Bilder.

ACCT vs. c-ResUnet vs. Ilastik vs. Basic Fiji im Fluocell-Datensatz. ClassifierRandomForest3 und ClassifierBayes3 sind die dritten trainierten Iterationen eines Fast Random Forest- bzw. BayesNet-Modells in ACCT. Die automatischen Zählungen der Fluocell-Bilder der drei Tools und die grundlegende Verwendung der Fidschi-Tools werden mit unserer manuellen Zählung des Fluocell-Datensatzes verglichen. Fehlerbalken stellen den Standardfehler des Mittelwerts der berechneten Leistungsstatistiken für jedes Bild dar, wobei die Statistik selbst aus der Gesamtzahl der Zellen im Datensatz berechnet wird. Der Prüfsatz ist eine Auswahl von 10 Bildern, die der Größe des Validierungsbildsatzes entspricht, der aus dem experimentellen Datensatz ausgewählt wurde. Die verwendeten Parameter sind: ein Schwellenwert von 0,5, eine minimale Pixelgröße von 250, eine maximale Pixelgröße von 5000 und der angewendete Watershed-Algorithmus.

ACCT generiert automatisch ROC-Kurven für jeden trainierten Klassifikator. Dadurch werden die Kompromisse zwischen Präzision und Erinnerung sowie die True-Positive-Rate und die False-Positive-Rate visualisiert. Abbildung 9 zeigt eine ROC-Kurve des ACCT-Klassifikators 10, angewendet auf den Iba-1-Mikroglia-Datensatz. Der Schwellenwert stellt die vom Klassifikator erforderliche Wahrscheinlichkeit dar, um zu bestimmen, ob ein Pixel als Zellenpixel bezeichnet wird. Die in diesen Diagrammen dargestellten Daten wurden mithilfe der Python-Bibliothek scikit-learn generiert, die statistische Analysen durchführte24.

Eine von ACCT erstellte ROC-Kurve nach der Validierungsphase auf Iba-1-Mikroglia-Bildern. Es zeigt die Falsch-Positiv-, Richtig-Positiv-, Erinnerungs- und Präzisionsraten des Klassifikators 10 bei verschiedenen Konfidenzschwellen auf den Iba-1-gefärbten Mikroglia-Bildern. Objekte wurden auf eine Mindestgröße von 50 Pixel und eine Maximalgröße von 1000 Pixel gefiltert. Der Watershed-Algorithmus wurde aufgrund der konsistenten Zelltrennung in den Probengeweben nicht auf den Iba-1-Datensatz angewendet.

Abbildung 9 zeigt den Kompromiss, bei dem die Falsch-Positiv-Rate schneller abnimmt als die Echt-Positiv-Rate, wenn ein höherer Schwellenwert angewendet wird. Beispielsweise verringerte die Erhöhung des Schwellenwerts für die Pixelsegmentierung im Iba-1-Datensatz die Falsch-Positiv-Rate im Vergleich zum Standardwert von 0,5. In dieser Studie wurde der Schwellenwert von 0,5 für gemeldete Berechnungen verwendet, da sich die Gesamtgenauigkeit aufgrund eines Rückgangs der tatsächlich positiven Zellidentifizierungen nicht erhöhte.

ACCT ist ein Schritt hin zu besser zugänglichen Berechnungstools für die Zellzählung und Bildsegmentierung. Der Hauptvorteil dieser Strategie ist derzeit die kürzere Zeit, die zum Trainieren und Anwenden der automatischen Zählstrategie erforderlich ist, verglichen mit der manuellen Zählung jedes Bildes. Unsere Studie zeigt die allgemeine Anwendbarkeit dieses Tools zur schnellen Untersuchung großer Datenmengen.

Der Trainingsprozess ist entscheidend für den Erfolg dieser automatischen Zellzählmethode und basiert auf den spezifischen Kenntnissen des Forschers über den abgebildeten Zelltyp. Jeder Bildsatz bringt aufgrund der Variabilität der Zell- und Medieneigenschaften seine eigenen, einzigartigen Herausforderungen mit sich. Daher erfordert die Bereitstellung genauer Trainingsdaten ein solides und konsistentes Verständnis der betreffenden Bilder. ACCT kann Benutzern dabei helfen, diese Funktionen in ihren Bildern anzupassen. Benutzer können bestimmte Merkmale auswählen, die in ihren ausgewählten maschinellen Lernmodellen analysiert werden sollen, um ihre Bilddaten besser darzustellen. Da jeder Benutzer über unterschiedliche Daten verfügt, verbessert diese zusätzliche Flexibilität die Fähigkeit von ACCT, benutzerspezifische Bilder zu analysieren.

Die Ergebnisse zeigen, dass diese ACCT hinsichtlich der Präzision am stärksten abschneiden, was darauf hindeutet, dass es sich bei den meisten „angerufenen“ Zellen um echte Zellen handelte. Die Erinnerung ist tendenziell wesentlich geringer als die Präzision, was zu geringeren F1-Werten und einer geringeren Genauigkeit bei allen an diesen Datensätzen getesteten ACCT-Klassifikatoren führt. Dies weist darauf hin, dass diese Modelle tendenziell konservativer sind als manuelle Zählungen durch Experten. Die Ergebnisse deuten jedoch darauf hin, dass Modelle, die ein Objekt als Zelle klassifizieren, aufgrund der hohen Präzision tendenziell korrekt sind.

Darüber hinaus zeigt die Mikroglia-Dichteanalyse in Abb. 6 und in Abb. 5, dass ACCT Zellen ähnlich zählt wie erfahrene Beobachter. Die Zählungen aller Beobachter ergaben einen ähnlichen mittleren Unterschied in der Mikroglia-Dichte zwischen den experimentellen Genotypen. ACCT korreliert stark mit den Ergebnissen der menschlichen Zellzählung und kann den Unterschied zwischen experimentellen Bedingungen ähnlich wie bei der manuellen Zählung reproduzieren. Somit ist es ein nützliches Werkzeug für die Bildanalyse zwischen mehreren experimentellen Bedingungen.

Wir sind uns bewusst, dass sich in Zukunft wahrscheinlich genauere automatische Zellzähltools aus ACCT oder anderen Softwarepaketen entwickeln werden. Allerdings zeigt ACCT derzeit eine starke Leistung und ist gleichzeitig ein für Forscher zugänglicheres Werkzeug als alle Ansätze, die große Computernetzwerke oder Rechencluster erfordern. In einigen Fällen übertrifft ACCT andere Zellzähltools, jedoch nicht in jedem Datensatz. Für Benutzer kann es jedoch sinnvoll sein, die Zugänglichkeit in der ImageJ-Umgebung und die Geschwindigkeit von ACCT gegen den leichten Leistungsverlust einiger Bilddatensätze einzutauschen.

Bezüglich der Rechenleistung wurden alle Arbeiten auf handelsüblichen Consumer-Laptops wie einem Dell Inspiron 15-7559 (veröffentlicht im Februar 2017) durchgeführt. Andere automatische Zellzähltools sind häufig darauf ausgelegt, große Rechenressourcen zu nutzen. Beispielsweise haben Morelli et al. verwendeten 4 V100-GPUs zur Verarbeitung ihres CNN-Ansatzes9. CNN-basierte Tools empfehlen die Verwendung eines Clusters oder Netzwerks aus mehreren Computern, was den Zugriff auf eine größere Rechenleistung ermöglicht. Computercluster stehen jedoch nicht allen Forschern zur Verfügung und erfordern möglicherweise zusätzlich Kenntnisse über Befehlszeilen für eine effektive Nutzung. ACCT ist nicht durch wesentliche Computerspezifikationen eingeschränkt, außerdem ist es für weniger befehlszeilenorientierte Forscher leichter zugänglich.

Reproduzierbare Ergebnisse sind ein Hauptanliegen in der wissenschaftlichen Forschung, und die Sicherstellung der Reproduzierbarkeit durch manuelle Zellzählung kann kostspielig und zeitaufwändig sein. Da ACCT Klassifikatoren als einzelne Modelldateien speichert, können sie einfach geteilt und heruntergeladen werden. Somit können Forscher reproduzierbare Ergebnisse und statistische Analysen einer Zellzählstudie teilen, indem sie die Modelldatei und den Satz analysierter Bilder teilen. Da die von ACCT generierten Analysen als in Excel bearbeitbare Dateien gespeichert werden, ist es für Benutzer einfach, ihre Ergebnisse zu teilen und zu kommunizieren.

Der Aufbau von ACCT rund um die von TWS implementierte grafische Oberfläche erweitert die Benutzerfreundlichkeit, indem eine Infrastruktur für die Validierung quantitativer Klassifikatoren und die Anwendung in einem vollständigen experimentellen Kontext auf dem flexiblen und intuitiven Trainingsgerät bereitgestellt wird4. Da ACCT auf vorhandene Tools zur Zellbildanalyse wie TWS zurückgreift, sollte es Forschern, die mit dem Programm vertraut sind, leichter fallen, auch die Verwendung von ACCT zu erlernen.

ACCT enthält eine barrierefreie Dokumentation sowie eine Bedienungsanleitung, die die Funktion und Verwendung des Programms erklärt und auf der GitHub-Seite zu finden ist. Die Dokumentation ist wichtig, damit Benutzer Softwaretools verstehen und verwenden können. Viele andere Softwaretools dokumentieren die Funktionen ihrer Komponenten innerhalb des Tools selbst, sodass Benutzer durch den Code navigieren müssen, um das Tool zu verstehen und zu verwenden. Dies wird vermieden, indem auf der Website für ACCT detaillierte Anweisungen geschrieben werden, die die Verwendung des Tools erklären, ohne dass die Benutzer jemals manuell auf den Code selbst zugreifen müssen.

ACCT könnte auch allgemeiner auf Bildsegmentierungsprobleme angewendet werden. Während der Schwerpunkt unserer Studie auf der Zellzählung im Kontext der Neurowissenschaften liegt, ist ACCT in der Lage, die Objekte zu quantifizieren, solange ein Bild Objektmerkmale aufweist, die von seinem Hintergrund getrennt werden können. Komplexere Objektformen und weniger markante Hintergründe erfordern jedoch möglicherweise die Auswahl komplexerer Modelle als in dieser Studie gezeigt. Ein einfaches Beispiel hierfür liefern wir in der ergänzenden Abbildung S4 unter Verwendung des Fast Random Forest-Modells, bei dem es sich um ein Bild handelt, das für Gebäude anhand eines Feldes segmentiert ist28. Obwohl es nicht so unterschiedlich ist wie Zellen, zeigt es, dass ACCT über den biologischen Kontext hinaus anwendbar ist. Insgesamt dürfte ACCT die Zugänglichkeit automatischer Analysen mit Zellzählung für ein breites Publikum in der neurowissenschaftlichen Forschung und darüber hinaus erheblich verbessern.

Der Iba-1-Datensatz, seine Analyse und die Fluocell-Datensatzanalyse während der aktuellen Studie sind im ACCT-Data-Repository verfügbar, https://github.com/tkataras/ACCT-Data-Repository.git. Der analysierte Fluocell-Datensatz ist öffentlich verfügbar und wird unter http://amsacta.unibo.it/6706/ veröffentlicht.

ACCT kann von GitHub unter https://github.com/tkataras/Automatic-Cell-counting-with-TWS.git abgerufen und heruntergeladen werden.

von Bartheld, CS, Bahney, J. & Herculano-Houzel, S. Die Suche nach der wahren Anzahl von Neuronen und Gliazellen im menschlichen Gehirn: Ein Rückblick auf 150 Jahre Zellzählung. J. Comp. Neurol. 524, 3865–3895. https://doi.org/10.1002/cne.24040 (2016).

Artikel Google Scholar

Jensen, EC Quantitative Analyse histologischer Färbung und Fluoreszenz mit ImageJ. Bin. Assoc. Anat. 296, 378–381. https://doi.org/10.1002/ar.22641 (2013).

Artikel Google Scholar

Schneider, CA, Rasband, WS & Eliceiri, KW Nih Bild zu Bild: 25 Jahre Bildanalyse. Nat. Methoden 9, 671–675. https://doi.org/10.1038/nmeth.2089 (2012).

Artikel CAS PubMed PubMed Central Google Scholar

Arganda-Carreras, I. et al. Trainierbare Weka-Segmentierung: Ein maschinelles Lerntool für die Pixelklassifizierung in der Mikroskopie. Bioinformatik 33, 2424–2426. https://doi.org/10.1093/bioinformatics/btx180 (2017).

Artikel CAS PubMed Google Scholar

Toggas, SM et al. Schädigung des Zentralnervensystems durch Expression des HIV-1-Hüllproteins gpl20 in transgenen Mäusen. Natur 367, 188–193. https://doi.org/10.1038/367188a0 (1994).

Artikel ADS CAS PubMed Google Scholar

Lynch, MA Das vielfältige Profil aktivierter Mikroglia. Mol. Neurobiol. 40, 139–156. https://doi.org/10.1007/s12035-009-8077-9 (2009).

Artikel CAS PubMed Google Scholar

Karperien, A., Ahammer, H. & Jelinek, H. Quantifizierung der Feinheiten der Mikroglia-Morphologie mit fraktaler Analyse. Vorderseite. Zelle. Neurosci. 7, 3. https://doi.org/10.3389/fncel.2013.00003 (2013).

Artikel PubMed PubMed Central Google Scholar

Gomez-Nicola, D. & Perry, VH Mikroglia-Dynamik und Rolle im gesunden und kranken Gehirn: Ein Paradigma funktioneller Plastizität. Der Neurowissenschaftler 21, 169–184. https://doi.org/10.1177/1073858414530512 (2015).

Artikel CAS PubMed PubMed Central Google Scholar

Morelli, R. et al. Automatisierung der Zellzählung in der Fluoreszenzmikroskopie durch Deep Learning mit c-resunet. Wissenschaft. Rep. 11, 1–11. https://doi.org/10.1038/s41598-021-01929-5 (2021).

Artikel CAS Google Scholar

Clissa, L. et al. Automatisierung der Zellzählung in der Fluoreszenzmikroskopie durch Deep Learning mit c-resunet. AlmaDL http://amsacta.unibo.it/6706/ (2021).

Goecks, J., Nekrutenko, A. & Taylor, J. Galaxy: Ein umfassender Ansatz zur Unterstützung zugänglicher, reproduzierbarer und transparenter Computerforschung in den Biowissenschaften. Genombiol. 11, 1–13. https://doi.org/10.1186/gb-2010-11-8-r86 (2010).

Artikel Google Scholar

Berg, S. et al. Ilastik: interaktives maschinelles Lernen für die (Bio-)Bildanalyse. Nat. Methoden 16, 1226–1232. https://doi.org/10.1038/s41592-019-0582-9 (2019).

Artikel CAS PubMed Google Scholar

Ronneberger, O., Fischer, P. & Brox, T. U-net: Faltungsnetzwerke für die biomedizinische Bildsegmentierung. In International Conference on Medical Image Computing and Computer-assisted Intervention 234–241 (Springer, 2015). https://doi.org/10.1007/978-3-319-24574-4_28.

Diakogiannis, FI, Waldner, F., Caccetta, P. & Wu, C. Resunet-a: Ein Deep-Learning-Framework für die semantische Segmentierung von Fernerkundungsdaten. ISPRS Journal of Photogrammetry and Remote Sensing 162, 94–114. https://doi.org/10.1016/j.isprsjprs.2020.01.013 (2020).

Artikel ADS Google Scholar

Stirling, DR et al. Cellprofiler 4: Verbesserungen bei Geschwindigkeit, Nutzen und Benutzerfreundlichkeit. BMC Bioinform. 22, 1–11. https://doi.org/10.1186/s12859-021-04344-9 (2021).

Artikel Google Scholar

Dao, D. et al. Cellprofiler-Analyst: Interaktive Datenexploration, Analyse und Klassifizierung großer biologischer Bildmengen. Bioinformatik 32, 3210–3212. https://doi.org/10.1093/bioinformatics/btw390 (2016).

Artikel CAS PubMed PubMed Central Google Scholar

Singh, H. et al. Eine zentrale Rolle für den Interferon-\(\alpha\)-Rezeptor-1 bei der durch HIV-1 induzierten neuronalen Schädigung. J. Neuroinflamm. 17, 226. https://doi.org/10.1186/s12974-020-01894-2 (2020).

Artikel CAS Google Scholar

Schindelin, J. et al. Fidschi: Eine Open-Source-Plattform für die Analyse biologischer Bilder. Nat. Methoden 9, 676–682. https://doi.org/10.1038/nmeth.2019 (2012).

Artikel CAS PubMed Google Scholar

Virtanen, P. et al. SciPy 1.0: Grundlegende Algorithmen für wissenschaftliches Rechnen in Python. Nat. Methoden 17, 261–272. https://doi.org/10.1038/s41592-019-0686-2 (2020).

Artikel CAS PubMed PubMed Central Google Scholar

McKinney, W. et al. Datenstrukturen für statistische Berechnungen in Python. In Proceedings of the 9th Python in Science Conference vol. 445, 51–56 (2010).

Harris, CR et al. Array-Programmierung mit NumPy. Natur 585, 357–362. https://doi.org/10.1038/s41586-020-2649-2 (2020).

Artikel ADS CAS PubMed PubMed Central Google Scholar

Hunter, JD Matplotlib: Eine 2D-Grafikumgebung. Berechnen. Wissenschaft. Ing. 9, 90–95 (2007).

Artikel Google Scholar

Klein, A. et al. imageio/imageio: v2.16.1. Zenodo https://doi.org/10.5281/zenodo.6302089(2022).

Pedregosa, F. et al. Scikit-learn: Maschinelles Lernen in Python. J. Mach. Lernen. Res. 12, 2825–2830. https://doi.org/10.5555/1953048.2078195 (2011).

Artikel MathSciNet MATH Google Scholar

Breiman, L. Zufällige Wälder. Mach. Lernen. 45, 5–32. https://doi.org/10.1023/A:1010933404324 (2001).

Artikel MATH Google Scholar

Friedman, N., Geiger, D. & Goldszmidt, M. Bayesianische Netzwerkklassifikatoren. Mach. Lernen. 29, 131–163. https://doi.org/10.1023/A:1007465528199 (1997).

Artikel MATH Google Scholar

Vincent, L. & Soille, P. Wassereinzugsgebiete in digitalen Räumen: Ein effizienter Algorithmus basierend auf Immersionssimulationen. IEEE Trans. Muster Anal. Mach. Intel. 13, 583–598. https://doi.org/10.1109/34.87344 (1991).

Artikel Google Scholar

Yan, Q., Zheng, J., Reding, S., Li, S. & Doytchinov, I. Crossloc: Skalierbare Luftlokalisierung unterstützt durch multimodale synthetische Daten. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition 17358–17368, https://doi.org/10.48550/arXiv.2112.09081(2022).

Referenzen herunterladen

Die Autoren danken Dr. Nina Yuan und Dr. Deepika Bhullar für Bilder von Maushirngeweben. Diese Arbeit wurde durch Mittel des National Institute of Health NIH, R01 MH104131, MH105330, MH087332, DA052209 bis MK, unterstützt.

Graduiertenprogramm für Genetik, Genomik und Bioinformatik, University of California, Riverside, Riverside, CA, 92521, USA

Theodore J. Kataras, Tyler J. Jang und Marcus Kaul

School of Medicine, Abteilung für Biomedizinische Wissenschaften, University of California, Riverside, Riverside, CA, 92521, USA

Theodore J. Kataras, Tyler J. Jang, Jeffrey Koury, Hina Singh, Dominic Fok und Marcus Kaul

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

TK und MK haben dieses Projekt konzipiert. TJ und TK programmierten das Tool, führten die Bildanalysestudie durch und verfassten das Manuskript. JK beteiligte sich an der Bildaufnahme. Die Benutzertests des Tools wurden von TK, TJ und DF durchgeführt, die während der ACCT-Entwicklung Feedback gaben. Iba-1-Mikroglia-Bilder von HS und manuell gezählt von TK, HS und DF. MK betreute das Projekt und redigierte das Manuskript. Alle Autoren überprüften das Manuskript und genehmigten es vor der Einreichung.

Korrespondenz mit Marcus Kaul.

Die Autoren geben an, dass keine Interessenkonflikte bestehen.

Springer Nature bleibt neutral hinsichtlich der Zuständigkeitsansprüche in veröffentlichten Karten und institutionellen Zugehörigkeiten.

Open Access Dieser Artikel ist unter einer Creative Commons Attribution 4.0 International License lizenziert, die die Nutzung, Weitergabe, Anpassung, Verbreitung und Reproduktion in jedem Medium oder Format erlaubt, sofern Sie den/die Originalautor(en) und die Quelle angemessen angeben. Geben Sie einen Link zur Creative Commons-Lizenz an und geben Sie an, ob Änderungen vorgenommen wurden. Die Bilder oder anderes Material Dritter in diesem Artikel sind in der Creative Commons-Lizenz des Artikels enthalten, sofern in der Quellenangabe für das Material nichts anderes angegeben ist. Wenn Material nicht in der Creative-Commons-Lizenz des Artikels enthalten ist und Ihre beabsichtigte Nutzung nicht gesetzlich zulässig ist oder über die zulässige Nutzung hinausgeht, müssen Sie die Genehmigung direkt vom Urheberrechtsinhaber einholen. Um eine Kopie dieser Lizenz anzuzeigen, besuchen Sie http://creativecommons.org/licenses/by/4.0/.

Nachdrucke und Genehmigungen

Kataras, TJ, Jang, TJ, Koury, J. et al. ACCT ist ein schnelles und zugängliches Tool zur automatischen Zellzählung, das maschinelles Lernen für die 2D-Bildsegmentierung nutzt. Sci Rep 13, 8213 (2023). https://doi.org/10.1038/s41598-023-34943-w

Zitat herunterladen

Eingegangen: 09. Juni 2022

Angenommen: 10. Mai 2023

Veröffentlicht: 22. Mai 2023

DOI: https://doi.org/10.1038/s41598-023-34943-w

Jeder, mit dem Sie den folgenden Link teilen, kann diesen Inhalt lesen:

Leider ist für diesen Artikel derzeit kein Link zum Teilen verfügbar.

Bereitgestellt von der Content-Sharing-Initiative Springer Nature SharedIt

Durch das Absenden eines Kommentars erklären Sie sich damit einverstanden, unsere Nutzungsbedingungen und Community-Richtlinien einzuhalten. Wenn Sie etwas als missbräuchlich empfinden oder etwas nicht unseren Bedingungen oder Richtlinien entspricht, kennzeichnen Sie es bitte als unangemessen.

AKTIE