Автоматический анализ поведения животных в соотношении с ключевыми аспектами среды выявляет новые когнитивные специализации нейронов
- Авторы: Плюснин В.В.1, Поспелов Н.А.1, Сотсков В.П.1, Докукин Н.В.1, Рогожникова О.С.1, Торопова К.А.1, Ивашкина О.И.1, Анохин К.В.1,2
-
Учреждения:
- Московский государственный университет имени М.В. Ломоносова
- Институт нормальной физиологии имени П.К. Анохина
- Выпуск: Том 18, № 4 (2023)
- Страницы: 874-877
- Раздел: Материалы конференции
- URL: https://bakhtiniada.ru/2313-1829/article/view/256359
- DOI: https://doi.org/10.17816/gc623482
- ID: 256359
Цитировать
Аннотация
Анализ специфических активаций нейронов относительно элементов внешней среды, поведения или внутреннего состояния животных невозможен без детального анализа поведенческих актов экспериментального животного. В настоящее время достигнуты некоторые успехи в автоматической сегментации поведения животных с использованием методов машинного обучения [1–3] на основе данных о местоположении частей тела животного [3]. При этом на данном этапе такие методы не позволяют достичь желаемого уровня точности в сегментации поведения, а также соотнести поведенческие акты животного с целевыми и мотивационными аспектами среды. В связи с этим авторами был разработан комплекс программных средств для извлечения широкого спектра поведенческих переменных из видеозаписей поведения животных в экспериментальных обстановках и математического анализа континуума поведенческих актов.
Для извлечения широкого спектра поведенческих переменных необходима детекция отдельных частей тела животного. Для той задачи нами был использован DeepLabCut — открытый тулбокс для поведенческого трекинга экспериментальных животных, основанный на принципе трансферного обучения c использованием глубоких нейронных сетей. Нами была отработана методика определения местоположения частей тела животного в различных поведенческих средах и сформирован набор частей тела животного, удовлетворяющий двум требованиям: высокая чувствительность к мелким моторным движениям животного и высокий процент точного определения местоположения части тела. В случае съёмки камерой сверху такой набор включает кончик носа, уши, основание хвоста, центр тела мыши, передние и задние конечности, левый и правый бок туловища животного.
Далее нами был разработан комплекс программных средств извлечения и детальной аннотации поведенческих переменных из данных о кинематике частей тела животного в различных когнитивных задачах. Разработанная автоматизированная система состоит из двух основных скриптовых модулей: CreatePreset и BehaviorAnalyzer. Модуль CreatePreset осуществляет взаимодействие с пользователем, в ходе которого происходит выбор типа геометрии арены и расположения в ней объектов, указание необходимых для анализа временных и пространственных параметров. Результат работы скрипта сохраняется в виде mat-файла, который может быть использован для анализа поведения во всех видео эксперимента при условии постоянства взаимного расположения арены и видеокамеры, а также дизайна эксперимента. Модуль BehaviorAnalyzer осуществляет предварительную обработку временных рядов координат частей тела животных, формирует массив данных о кинематике частей тела — кинематограмму, выделяет дискретные поведенческие акты животного и аннотирует его поведение в соотношении с мотивационными и целевыми аспектами среды.
С помощью методов на основе взаимной информации нами был проведён анализ специализаций нейронов CA1 гиппокампа при обследовании животными арены с разным уровнем новизны. В результате анализа выявлены нейроны, селективные относительно определённых значений непрерывных кинематических параметров позы и траектории животного, таких как местоположение в пространстве арены (координаты X и Y), а также скорости и угла поворота головы (т.е. абсолютной ориентации в пространстве арены). Выявлены также нейроны, специализированные относительно дискретных актов поведения, а именно: остановки, побежки, замирание (фризинг), стойки и акты взаимодействия с объектами. Кроме того, были обнаружены нейроны, селективно активирующиеся относительно дополнительного набора дискретных параметров, представляющих собой комбинацию местоположения животного в арене и скорости.
Ключевые слова
Полный текст
Анализ специфических активаций нейронов относительно элементов внешней среды, поведения или внутреннего состояния животных невозможен без детального анализа поведенческих актов экспериментального животного. В настоящее время достигнуты некоторые успехи в автоматической сегментации поведения животных с использованием методов машинного обучения [1–3] на основе данных о местоположении частей тела животного [3]. При этом на данном этапе такие методы не позволяют достичь желаемого уровня точности в сегментации поведения, а также соотнести поведенческие акты животного с целевыми и мотивационными аспектами среды. В связи с этим авторами был разработан комплекс программных средств для извлечения широкого спектра поведенческих переменных из видеозаписей поведения животных в экспериментальных обстановках и математического анализа континуума поведенческих актов.
Для извлечения широкого спектра поведенческих переменных необходима детекция отдельных частей тела животного. Для той задачи нами был использован DeepLabCut — открытый тулбокс для поведенческого трекинга экспериментальных животных, основанный на принципе трансферного обучения c использованием глубоких нейронных сетей. Нами была отработана методика определения местоположения частей тела животного в различных поведенческих средах и сформирован набор частей тела животного, удовлетворяющий двум требованиям: высокая чувствительность к мелким моторным движениям животного и высокий процент точного определения местоположения части тела. В случае съёмки камерой сверху такой набор включает кончик носа, уши, основание хвоста, центр тела мыши, передние и задние конечности, левый и правый бок туловища животного.
Далее нами был разработан комплекс программных средств извлечения и детальной аннотации поведенческих переменных из данных о кинематике частей тела животного в различных когнитивных задачах. Разработанная автоматизированная система состоит из двух основных скриптовых модулей: CreatePreset и BehaviorAnalyzer. Модуль CreatePreset осуществляет взаимодействие с пользователем, в ходе которого происходит выбор типа геометрии арены и расположения в ней объектов, указание необходимых для анализа временных и пространственных параметров. Результат работы скрипта сохраняется в виде mat-файла, который может быть использован для анализа поведения во всех видео эксперимента при условии постоянства взаимного расположения арены и видеокамеры, а также дизайна эксперимента. Модуль BehaviorAnalyzer осуществляет предварительную обработку временных рядов координат частей тела животных, формирует массив данных о кинематике частей тела — кинематограмму, выделяет дискретные поведенческие акты животного и аннотирует его поведение в соотношении с мотивационными и целевыми аспектами среды.
С помощью методов на основе взаимной информации нами был проведён анализ специализаций нейронов CA1 гиппокампа при обследовании животными арены с разным уровнем новизны. В результате анализа выявлены нейроны, селективные относительно определённых значений непрерывных кинематических параметров позы и траектории животного, таких как местоположение в пространстве арены (координаты X и Y), а также скорости и угла поворота головы (т.е. абсолютной ориентации в пространстве арены). Выявлены также нейроны, специализированные относительно дискретных актов поведения, а именно: остановки, побежки, замирание (фризинг), стойки и акты взаимодействия с объектами. Кроме того, были обнаружены нейроны, селективно активирующиеся относительно дополнительного набора дискретных параметров, представляющих собой комбинацию местоположения животного в арене и скорости.
ДОПОЛНИТЕЛЬНАЯ ИНФОРМАЦИЯ
Вклад авторов. Все авторы подтверждают соответствие своего авторства международным критериям ICMJE (все авторы внесли существенный вклад в разработку концепции, проведение исследования и подготовку статьи, прочли и одобрили финальную версию перед публикацией).
Источник финансирования. Исследование выполнено при финансовой поддержке междисциплинарной научно-образовательной школы Московского университета «Мозг, когнитивные системы, искусственный интеллект» и некоммерческого фонда развития науки и образования «Интеллект».
Конфликт интересов. Авторы декларируют отсутствие явных и потенциальных конфликтов интересов, связанных с публикацией настоящей статьи.
Об авторах
В. В. Плюснин
Московский государственный университет имени М.В. Ломоносова
Автор, ответственный за переписку.
Email: witkax@mail.ru
Россия, Москва
Н. А. Поспелов
Московский государственный университет имени М.В. Ломоносова
Email: witkax@mail.ru
Россия, Москва
В. П. Сотсков
Московский государственный университет имени М.В. Ломоносова
Email: witkax@mail.ru
Россия, Москва
Н. В. Докукин
Московский государственный университет имени М.В. Ломоносова
Email: witkax@mail.ru
Россия, Москва
О. С. Рогожникова
Московский государственный университет имени М.В. Ломоносова
Email: witkax@mail.ru
Россия, Москва
К. А. Торопова
Московский государственный университет имени М.В. Ломоносова
Email: witkax@mail.ru
Россия, Москва
О. И. Ивашкина
Московский государственный университет имени М.В. Ломоносова
Email: witkax@mail.ru
Россия, Москва
К. В. Анохин
Московский государственный университет имени М.В. Ломоносова; Институт нормальной физиологии имени П.К. Анохина
Email: witkax@mail.ru
Россия, Москва; Москва
Список литературы
- Weinreb C., Osman M.A.M., Zhang L., et al. Keypoint-MoSeq: parsing behavior by linking point tracking to pose dynamics // bioRxiv. 2023. Vol. 2023. P. 03.16.532307. doi: 10.1101/2023.03.16.532307
- Hsu A., Yttri E. B-SOiD, an open-source unsupervised algorithm for identification and fast prediction of behaviors // Nat Commun. 2021. Vol. 12, N 1. P. 5188. doi: 10.1038/s41467-021-25420-x
- Mathis A., Mamidanna P., Cury K.M., et al. DeepLabCut: markerless pose estimation of user-defined body parts with deep learning // Nat Neurosci. 2018. Vol. 21, N 9. P. 1281–1289. doi: 10.1038/s41593-018-0209-y
Дополнительные файлы
