🔧На сайте запланированы технические работы
25.12.2025 в промежутке с 18:00 до 21:00 по Московскому времени (GMT+3) на сайте будут проводиться плановые технические работы. Возможны перебои с доступом к сайту. Приносим извинения за временные неудобства. Благодарим за понимание!
🔧Site maintenance is scheduled.
Scheduled maintenance will be performed on the site from 6:00 PM to 9:00 PM Moscow time (GMT+3) on December 25, 2025. Site access may be interrupted. We apologize for the inconvenience. Thank you for your understanding!

 

Возможность применения ИИ в преподавании этики: на примере биоэтики

Обложка

Цитировать

Полный текст

Аннотация

В исследовании подвергается анализу перспектива интеграции систем искусственного интеллекта (ИИ) в преподавание этических дисциплин, в качестве ключевого примера выступает биоэтика. Внедрение инструментов ИИ в образование рассматривается сегодня как актуальная инициатива цифровой эпохи, аналогичные тенденции активно наблюдаются и прогнозируются в медицине. На основе междисциплинарного подхода (философия, когнитивные науки, биоэтика, теория ИИ) исследуются проблема приписывания ИИ моральной агентности. Хотя существуют веские аргументы в пользу признания ИИ влиятельным агентом в социокультурном смысле, это не обеспечивает ему статуса полноценного морального агента. ИИ способен «следовать правилу», но без подлинного понимания иррациональных моментов межсубъектного взаимодействия, наличествующего культурного, психологического контекста, что исключает человеческую гибкость в принятии решений. Поскольку не существует исчерпывающей и всеохватной этической регламентации, этическое действие требует практической мудрости (phronesis), недоступной ИИ в силу его дискретной, лишенной контекстуальной целостности природы. Без экзистенциальной вовлеченности в мир, собственной истории и телесности, он остается респонсивным, но не морально-ответственным агентом. На примерах использования ИИ (нейросети, чат-боты), имеющихся исследований в области его восприятия и задействования в учебном процессе, анализируется статус ИИ как Другого. Этот виртуальный Другой не вводит нас в этическую ситуацию подобно педагогу-человеку по нескольким причинам. С одной стороны, в статье обосновывается неспособность ИИ на саморефлексию в силу его онтологии. Ключевым аргументом выступает уязвимость человека - основа совести, ответственности и подлинного этического вопрошания, недоступная ИИ. Без уязвимости нет эмпатии, а без нее - погружения в этическую проблематику как неизбежно актуальную. Способы безопасного использования технологий ИИ и сопутствующие этические риски нуждаются во всестороннем изучении, в том числе и самими студентами в процессе образования. В частности, они должны понимать необходимость осмысления взаимодействий с ИИ с позиции морали, влияния последнего на процесс принятия решений в будущей профессиональной деятельности.

Об авторах

Борис Сергеевич Соложенкин

Первый МГМУ им. И.М. Сеченова Минздрава России (Сеченовский Университет)

Автор, ответственный за переписку.
Email: gerzhogzdes@mail.ru
ORCID iD: 0000-0003-1125-1342
SPIN-код: 6164-2092

кандидат философских наук, доцент Института социальных наук

Российская Федерация, 119048, Москва, ул. Трубецкая, д. 8, стр. 2

Марина Павловна Асафайло

Первый МГМУ им. И.М. Сеченова Минздрава России (Сеченовский Университет)

Email: asafaylo_m_p@staff.sechenov.ru
ORCID iD: 0000-0003-3482-1424
SPIN-код: 9779-6377

кандидат философских наук, доцент Института социальных наук

Российская Федерация, 119048, Москва, ул. Трубецкая, д. 8, стр. 2

Список литературы

  1. Chibisov ON. Gnoseology of Machine Learning of Strong Artificial Intelligence. Nauka. Iskusstvo. Kul’tura. 2024;(2):143–157. (In Russian). EDN: YXKOHW
  2. Gottfredson LJ. Mainstream Science on Intelligence: An Editorial with 52 Signatories, History, and Bibliography. Intelligence. 1997;24(1):13–23. doi: 10.1016/s0160-2896(97)90011-8
  3. Gignac GE, Szodorai ET. Defining Intelligence: Bridging the Gap between Human and Artificial Perspectives. Intelligence. 2024;104:101832. doi: 10.1016/j.intell.2024.101832 EDN: ZGKQKF
  4. Luger GF. Artificial Intelligence: Principles and Practice. Springer International Publishing; 2024.
  5. Mokshanov MV. The use of artificial intelligence in data analysis: an overview of the current state and future directions. Universum: Tekhnicheskie Nauki. 2024;5(122). Available from: https://7universum.com/ru/tech/archive/item/17513 (accessed: 21.07.2025). (In Russian).
  6. Searle JR. Consciousness, Brain, and Programs. In: Analytical Philosophy: Formation and Development (The anthology). Moscow: Dom Intellektual’noi Knigi; 1998. (In Russian).
  7. Smirnov SA. Is human being computable, or anthropology of artificial intelligence. Methodological aspect. Vestnik Sankt-Peterburgskogo Universiteta. Filosofiya i Konfliktologiya. 2023;39(3):478–491. (In Russian). doi: 10.21638/spbu17.2023.306 EDN: SFQBCU
  8. Solozhenkin BS. The basic concepts of bioethics in their philosophical-anthropological perspective: on the dialectics of life and death. In: Grekhov AV, Fatenkov AN, editors. Social and humanitarian cognition: methodological and substantive parallels : A collective monograph. Moscow: Akvilon. 2019. (In Russian). EDN: ZHFJAL
  9. Charles T. Human Agency and Language. Philosophical Papers. Vol. 1. Cambridge: Cambridge University Press; 1985.
  10. Safonova YA, Subocheva ON, Korshkova AS. Agency of artificial autonomous systems as a factor in the transformation of society. Sotsiologiya. 2023;(6):116–122. (In Russian). EDN: BSOFML
  11. Floridi L. The Ethics of Artificial Intelligence: Principles, Challenges, and Opportunities. Oxford: Oxford University Press; 2023.
  12. Ågerfalk PJ. Artificial Intelligence as Digital Agency. European Journal of Information Systems. 2020;29(1):1–8. doi: 10.1080/0960085X.2020.1721947
  13. Dreyfus HL. What Computers Still Can’t Do: A Critique of Artificial Reason. Biryukov BV, editor. Moscow: Librokom; 2010. (In Russian).
  14. Krylov NN. Ethics of Surgery. Dialogues with a Surgeon: Dialogues with a Surgeon on Professional Morality and Ethics. Moscow: Filin; 2021. (In Russian).
  15. Descombes V. Complement to the Subject: A Study of the Phenomenon of Action from One’s Own Person. Golovanivskaya M, transl. Moscow: Novoe literaturnoe obozrenie; 2011 (In Russian).
  16. Gunkel DJ. Mind the Gap: Responsible Robotics and the Problem of Responsibility. Ethics and Information Technology. 2020;22(4):307–320. doi: 10.1007/s10676-017-9428-2 EDN: ZCENSQ
  17. Coeckelbergh M. You, Robot: On the Linguistic Construction of Artificial Others. AI & Society. 2011;26(1):61–69. doi: 10.1007/s00146-010-0289-z EDN: CYPWXM
  18. Shen J, Dipaola D, Ali S, et al. Empathy toward Artificial Intelligence versus Human Experiences and the Role of Transparency in Mental Health and Social Support Chatbot Design: Comparative Study. JMIR Mental Health. 2024;11:e62679. doi: 10.2196/62679 EDN: NPZKBE
  19. Chiu TKF, Moorhouse BL, Chai CS, Ismailov M. Teacher Support and Student Motivation to Learn with Artificial Intelligence (AI) based Chatbot. Interactive Learning Environments. 2024;32(7):3240–3256. doi: 10.1080/10494820.2023.2172044
  20. Shannon V. Technology and the Virtues: A Philosophical Guide to a Future Worth Wanting. Oxford: Oxford University Press; 2016.
  21. Siluyanova IV, Nazarova EV. Contribution of N.I. Pirogov in the development of professional ethics of physicians Vestnik RGMU. 2010;(5):98–101. (In Russian). EDN: NDDQJF
  22. Blasimme A, Vayena E. The Ethics of AI in Biomedical Research, Patient Care, and Public Health. In: Dubber MD, Pasquale F, Das S, editors. The Oxford Handbook of Ethics of AI. Oxford: Oxford University Press; 2020.
  23. Andreeva YV, Antonova II, Shakurova AR, Garnaeva GI, Efimov MG. Analysis of Involvement in the Interaction Process with the Neural Network of Students and Teachers. Kompetentnost’ / Competency (Russia). 2024;(9–10):6–12. (In Russian). doi: 10.24412/1993-8780-2024-9-06-12 EDN: PILSCE
  24. Fasoli M, Cassinadri G, Ienca M. The Dark Side of Cognitive Enhancement: A Framework for the Technologically Induced Cognitive Diminishment. Journal of Cognitive Enhancement. 2025;(9):1–14. doi: 10.1007/s41465-025-00331-7
  25. Bermus AG, Sizova EV. Ethical aspects of implementing artificial intelligence technologies in a classical university: analysis of student audience attitude. Nepreryvnoe obrazovanie: XXI vek. 2025;13(2):1–16. (In Russian). doi: 10.15393/j5.art.2025.10585 EDN: BQHTHY
  26. Bryzgalina EV, Gumarova AN, Shkomova ЕМ. Key problems, risks and restrictions of using artificial intelligence in medicine and education. Vestnik Moskovskogo universiteta. Series 7: Philosophy. 2022;(6):93–108. (In Russian). EDN: GXUYWB

Дополнительные файлы

Доп. файлы
Действие
1. JATS XML

Согласие на обработку персональных данных с помощью сервиса «Яндекс.Метрика»

1. Я (далее – «Пользователь» или «Субъект персональных данных»), осуществляя использование сайта https://journals.rcsi.science/ (далее – «Сайт»), подтверждая свою полную дееспособность даю согласие на обработку персональных данных с использованием средств автоматизации Оператору - федеральному государственному бюджетному учреждению «Российский центр научной информации» (РЦНИ), далее – «Оператор», расположенному по адресу: 119991, г. Москва, Ленинский просп., д.32А, со следующими условиями.

2. Категории обрабатываемых данных: файлы «cookies» (куки-файлы). Файлы «cookie» – это небольшой текстовый файл, который веб-сервер может хранить в браузере Пользователя. Данные файлы веб-сервер загружает на устройство Пользователя при посещении им Сайта. При каждом следующем посещении Пользователем Сайта «cookie» файлы отправляются на Сайт Оператора. Данные файлы позволяют Сайту распознавать устройство Пользователя. Содержимое такого файла может как относиться, так и не относиться к персональным данным, в зависимости от того, содержит ли такой файл персональные данные или содержит обезличенные технические данные.

3. Цель обработки персональных данных: анализ пользовательской активности с помощью сервиса «Яндекс.Метрика».

4. Категории субъектов персональных данных: все Пользователи Сайта, которые дали согласие на обработку файлов «cookie».

5. Способы обработки: сбор, запись, систематизация, накопление, хранение, уточнение (обновление, изменение), извлечение, использование, передача (доступ, предоставление), блокирование, удаление, уничтожение персональных данных.

6. Срок обработки и хранения: до получения от Субъекта персональных данных требования о прекращении обработки/отзыва согласия.

7. Способ отзыва: заявление об отзыве в письменном виде путём его направления на адрес электронной почты Оператора: info@rcsi.science или путем письменного обращения по юридическому адресу: 119991, г. Москва, Ленинский просп., д.32А

8. Субъект персональных данных вправе запретить своему оборудованию прием этих данных или ограничить прием этих данных. При отказе от получения таких данных или при ограничении приема данных некоторые функции Сайта могут работать некорректно. Субъект персональных данных обязуется сам настроить свое оборудование таким способом, чтобы оно обеспечивало адекватный его желаниям режим работы и уровень защиты данных файлов «cookie», Оператор не предоставляет технологических и правовых консультаций на темы подобного характера.

9. Порядок уничтожения персональных данных при достижении цели их обработки или при наступлении иных законных оснований определяется Оператором в соответствии с законодательством Российской Федерации.

10. Я согласен/согласна квалифицировать в качестве своей простой электронной подписи под настоящим Согласием и под Политикой обработки персональных данных выполнение мною следующего действия на сайте: https://journals.rcsi.science/ нажатие мною на интерфейсе с текстом: «Сайт использует сервис «Яндекс.Метрика» (который использует файлы «cookie») на элемент с текстом «Принять и продолжить».