A human element in a human-machine hybrid of artificial intelligence

封面

如何引用文章

全文:

开放存取 开放存取
受限制的访问 ##reader.subscriptionAccessGranted##
受限制的访问 订阅存取

详细

The article is devoted to the question of what happens to the status of a human being in the modern period of artificial intelligence technology (hereinafter — AI) dominance. Anthropocentrism is treated as an insufficient conceptual means for the identification of the real position of a human, because it leads to the fixation of simple instrumentality behind AI systems. Such a distribution of roles between humans and technology does not correspond to the real complexity of the functioning and interaction of humans and AI at the present stage. AI, by virtue of its construction, has a certain degree of autonomy, opacity and unpredictability, which allows us to generally talk about it as an agent. However, if we allow the expansion of the field of morality as a result of its reorientation from the subject of action to the object and its moral state’s significant changes, then artificial agents can be regarded as moral agents (based on Luciano Floridi’s Information ethics project).

However, these agents are designed and trained by humans based on data that is produced, collected, and marked up by humans again. The reality of technology production in its social aspect is so complex that, as a result, it is not possible to take into account the separate contribution of all agents (human and non-human) to its functioning. Therefore, the concept of a sociotechnical multi-agent system is used to designate this situation. It is characterized by different levels of agency: causal, moral and moral with the possibility of responsibility. The human in the sociotechnical system is a source of moral agency and responsibility due to the fact that they are its essential properties. The further direction of the research is connected with the question of how the problem of eliminating the responsibility gap in the realm of the sociotechnical system should be solved.

全文:

受限制的访问

作者简介

Daria Chirva

St. Petersburg National Research University of Information Technologies, Mechanics and Optics (ITMO University); National Research University Higher School of Economics (HSE University)

编辑信件的主要联系方式.
Email: dvchirva@itmo.ru
俄罗斯联邦, St. Petersburg; St. Petersburg

参考

  1. Floridi L. Distributed Morality in an Information Society. Science and Engineering Ethics, 2012, vol. 19, pp. 727–743.
  2. Floridi L. Faultless Responsibility: On the Nature and Allocation of Moral Responsibility for Distributed Moral Actions. Philosophical Transactions, 2016, vol. 374, no. 2083, pp. 1–13.
  3. Floridi L. Information Ethics: On the Theoretical Foundations of Computer Ethics. Ethics and Information Technology, 1999, vol. 1, no. 1, pp. 37–56.
  4. Floridi L., Sanders J. W. On the Morality of Artificial Agents. Minds and Machines, 2004, vol. 14, no. 3, pp. 349–379.
  5. Heidegger M. Vopros o tekhnike [Die Frage nach der Technik]. Vremia i bytie: stat’i i vystupleniia [Time and Being: Articles and Speeches], Moscow, Respublika, 1993, pp. 221–238.
  6. Kodeks etiki v sfere iskusstvennogo intellekta [The Code of Ethics in the Field of Artificial Intelligence], Moscow, AI Alliance Russia, 2023. Available at: https://ethics.a-ai.ru/assets/ethics_files/2023/05/12/Кодекс_этики_20_10_1.pdf.
  7. Latour B. Peresborka sotsial’nogo: vvedenie v aktorno-setevuiu teoriiu [Reassembling the Social. An Introduction to Actor-Network-Theory], Moscow, HSE Publishing House, 2014.
  8. List C. Group Agency and Artificial Intelligence. Philosophy and Technology, 2021, vol. 34, no. 4, pp. 1213–1242.
  9. Matthias A. The Responsibility Gap: Ascribing Responsibility for the Actions of Learning Automata. Ethics and Information Technology, 2004, vol. 6, no. 3, pp. 175–183.
  10. Rahwan I, Cebrian M., Obradovich N., Bongard J., Bonnefon J.-F., Breazeal C., Crandall J. W., Christakis N. A., Couzin I. D., Jackson M. O., Jennings N. R., Kamar E., Kloumann I. M., Larochelle H., Lazer D., McElreath R., Mislove A., Parkes D. C., Pentland A., Roberts M. E., Shariff A., Tenenbaum J. B., Wellman M. Machine Behaviour. Nature, 2019, vol. 568, no. 7753, pp. 477–486.
  11. Rekomendatsiia ob eticheskikh aspektakh iskusstvennogo intellekta IuNESKO 2021 goda [UNESCO Recommendation on the Ethics of Artificial Intelligence]. UNESDOC. Available at: https://unesdoc.unesco.org/ark:/48223/pf0000380455_rus.
  12. Sparrow R. Killer Robots. Journal of Applied Philosophy, 2007, vol. 24, no. 1, pp. 62–77.
  13. Strasser A. Distributed Responsibility in Human-Machine Interactions. AI and Ethics, 2022, vol. 2, no. 3, pp. 523–532.
  14. Zheleznov A. Moral’ dlia iskusstvennogo intellekta: perspektivy filosofskogo pereosmysleniia [The Moral of Artificial Intelligence: A Chance to Reconsider Philosophy]. Logos (Russia), 2021, vol. 31, no. 6, pp. 95–122.

补充文件

附件文件
动作
1. JATS XML

版权所有 © Logos Philosophical Literary Journal, 2024

Согласие на обработку персональных данных с помощью сервиса «Яндекс.Метрика»

1. Я (далее – «Пользователь» или «Субъект персональных данных»), осуществляя использование сайта https://journals.rcsi.science/ (далее – «Сайт»), подтверждая свою полную дееспособность даю согласие на обработку персональных данных с использованием средств автоматизации Оператору - федеральному государственному бюджетному учреждению «Российский центр научной информации» (РЦНИ), далее – «Оператор», расположенному по адресу: 119991, г. Москва, Ленинский просп., д.32А, со следующими условиями.

2. Категории обрабатываемых данных: файлы «cookies» (куки-файлы). Файлы «cookie» – это небольшой текстовый файл, который веб-сервер может хранить в браузере Пользователя. Данные файлы веб-сервер загружает на устройство Пользователя при посещении им Сайта. При каждом следующем посещении Пользователем Сайта «cookie» файлы отправляются на Сайт Оператора. Данные файлы позволяют Сайту распознавать устройство Пользователя. Содержимое такого файла может как относиться, так и не относиться к персональным данным, в зависимости от того, содержит ли такой файл персональные данные или содержит обезличенные технические данные.

3. Цель обработки персональных данных: анализ пользовательской активности с помощью сервиса «Яндекс.Метрика».

4. Категории субъектов персональных данных: все Пользователи Сайта, которые дали согласие на обработку файлов «cookie».

5. Способы обработки: сбор, запись, систематизация, накопление, хранение, уточнение (обновление, изменение), извлечение, использование, передача (доступ, предоставление), блокирование, удаление, уничтожение персональных данных.

6. Срок обработки и хранения: до получения от Субъекта персональных данных требования о прекращении обработки/отзыва согласия.

7. Способ отзыва: заявление об отзыве в письменном виде путём его направления на адрес электронной почты Оператора: info@rcsi.science или путем письменного обращения по юридическому адресу: 119991, г. Москва, Ленинский просп., д.32А

8. Субъект персональных данных вправе запретить своему оборудованию прием этих данных или ограничить прием этих данных. При отказе от получения таких данных или при ограничении приема данных некоторые функции Сайта могут работать некорректно. Субъект персональных данных обязуется сам настроить свое оборудование таким способом, чтобы оно обеспечивало адекватный его желаниям режим работы и уровень защиты данных файлов «cookie», Оператор не предоставляет технологических и правовых консультаций на темы подобного характера.

9. Порядок уничтожения персональных данных при достижении цели их обработки или при наступлении иных законных оснований определяется Оператором в соответствии с законодательством Российской Федерации.

10. Я согласен/согласна квалифицировать в качестве своей простой электронной подписи под настоящим Согласием и под Политикой обработки персональных данных выполнение мною следующего действия на сайте: https://journals.rcsi.science/ нажатие мною на интерфейсе с текстом: «Сайт использует сервис «Яндекс.Метрика» (который использует файлы «cookie») на элемент с текстом «Принять и продолжить».