Актуальность выбора предмета исследования как основы обеспечения безопасности применения робототехнических систем различного назначения, в первую очередь – использующих для управления искусственный интеллект, и объекта исследования, которым являются проблемы разделения ответственности за разработку и эксплуатацию робототехнических систем, определяется имеющимся противоречием между потребностью автономного применения робототехнических систем и сложностью программной реализации этого требования. В то же время, в робототехнике, довольно часто, именно ошибки алгоритмов управления служат источником большинства проблем. На основании анализа нормативных документов, регламентирующих разработку средств искусственного интеллекта, проанализированы возможные проблемы обеспечения безопасности применения автономных робототехнических систем. Синтезирован вывод, что в существующем состоянии данные документы не обеспечивают решения проблемы безопасности систем искусственного интеллекта. В качестве методологической основы исследования был избран системный подход. Использование системного подхода, методов декомпозиции и сравнительного анализа, дало возможность рассматривать в комплексе проблемы разделения зон ответственности разработчиков и эксплуатантов автономных и частично автономных роботов, реализующих принципы управления на основе искусственного интеллекта. Источниковую базу исследования составили научные статьи, нормативные и законодательные документы, находящиеся в открытом доступе. Сделан вывод, что существующие подходы к обучению и самообучению систем искусственного интеллекта, управляющих автономными роботами “размывают” границы ответственности участников процесса, что, в теории, может приводить к возникновению критических ситуаций при эксплуатации. С учётом этого, на основе анализа типового процесса разработки и применения, предложено уточнить распределение ответственности, а также добавить в процесс новых участников: дополнить его специалистами, направленно занимающимися безопасностью и непредвзятостью искусственного интеллекта (AI Alignment), а таже обеспечить групповой подход в разработке алгоритмов искусственного интелелкта и машинного обучения, обеспечивающий снижение фактора субъективности. Применение синтезированых в статье принципов разделения ответственности, теоретически, обеспечит повышение безопасности робототехнических систем, построенных на основе использования искусственного интеллекта