КУРС "ДОСЛІДНИЦЬКІ МЕТОДИ Й АНАЛІЗ У ФІЛОСОФСЬКИХ ДОСЛІДЖЕННЯХ": ШІ ЯК ІНСТРУМЕНТ, ВИКЛИК І ДЗЕРКАЛО ЛЮДСЬКИХ НЕДОЛІКІВ

  • Наталія Вяткіна Інститут філософії імені Г.С. Сковороди НАН України https://orcid.org/0000-0003-4839-1146
Ключові слова: ШІ, філософія ШІ, етика ШІ, дослідницькі методи і аналіз, технології ШІ, великі мовні моделі (LLM)

Анотація

Перетин філософських досліджень і штучного інтелекту (ШІ) є, на перший погляд, благодатним ґрунтом для досліджень, але тільки на перший погляд. Адже це непросте завдання – по-справжньому заглибитись у фундаментальні філософські принципи, на яких базуються розробки ШІ, та усвідомити всі наслідки цих стосунків. І це не просто роздуми, а пошук фундаментальних принципів, які визначають цінність, ефективність і ризики ШІ, а також впливають на здатність генерувати нові ідеї та безпеку. У статті обговорюється залучення ШІ у викладання філософських дисциплін, зокрема на прикладі курсу "Дослідницькі методи й аналіз у філософських дослідженнях". Автор також аналізує етичні та когнітивні проблеми ШІ, використовуючи дві студентські роботи як ілюстрації того, як використовуються здобутки курсу для розгляду зокрема упередженості ШІ та його обмеженої здатності до "судження" порівняно з людським. Автор досліджує використання ШІ в академічній праці, визнаючи його переваги як інструменту, але також піднімаючи питання щодо авторських прав, достовірності інформації та необхідності людського контролю. Ця стаття має на меті дослідити деякі важливі взаємозв’язки, наголошуючи на тому, що етика не є єдиною філософською дисципліною, яка застосовується до ШІ, що філософські дослідження на рівні онтології, епістемології й телеології збагачують наше розуміння ШІ та кидають виклик звичайним методологіям, спонукаючи до переоцінки наших освітніх рамок у світлі цих досягнень. У статті йдеться про найновіші підходи до оцінки ролі філософії, яка закладає принципи створення ШІ, а отже є фундаментальною частиною ефективного ШІ. Утворюється така собі область філософії ШІ, що заглиблює й висвітлює важливі теми, поєднуючи теоретичні основи з практичним застосуванням у технологіях. Крім того, розгляд різноманітних концепцій, як от пояснюваний ШІ (explainable AI), підкреслюють потребу розуміння користувачами, у чому полягає сенс складних моделей, зокрема інформаційних, хоча б у загальних рисах. У висновках наголошуюється про важливість моральної відповідальності у розробці та використанні ШІ, особистої й колективної.

Завантаження

##plugins.generic.usageStats.noStats##

Біографія автора

Наталія Вяткіна, Інститут філософії імені Г.С. Сковороди НАН України

Вяткіна Наталія Борисівна

кандидат філософських наук

старший науковий співробітник відділу логіки і методології науки

Інститут філософії імені Г.С. Сковороди НАН України

01001, Київ, вул. Трьохсвятительська, 4

Посилання

Viatkina, N. (2019). Theory of Meaning, Deference and Normativity. Philosophical thought, 5, 40-51. https://dumka.philosophy.ua/index.php/fd/article/view/382/354 (In Ukrainian)

Mayevsky, A. (2024). Epistemic Limitations of Large Language Models. Мultiversum. Philosophical almanac, 2(180), 1, 54-70. https://doi.org/10.35423/2078-8142.2024.2.1.3 (In Ukrainian)

Mayevsky, A. (2020). The Functional Success of Intelligent Automata. NaUKMA Research Papers in Philosophy and Religious Studies, 5, 15-26. https://doi.org/10.18523/2617-1678.2020.5.15-25 (In Ukrainian)

Myronenko, R. (2025). The problem of ethical attitude towards AI models: should we thank them and greet them? Plato’s Cave. 06.05. https://platoscave.com.ua/tpost/xh7ys1h9k1-problema-etichnogo-stavlennya-do-sh-mode (In Ukrainian)

Popovych, M. (1998). An Essay on the Cultural History of Ukraine. Kyiv: ArtEk. (In Ukrainian)

Tytenko, S. (2024). Ontologically-oriented content management systems for informational and educational Web portals: monograph. Kyiv: American University Kyiv. (In Ukrainian)

Aberdein, A., Inglis, M. (2019). Introduction. Advances in Experimental Philosophy of Logic and Mathematics. London: Bloomsbury Academic. pp. 1-13.

Bell, K, R. W., Noble, J., R, Rossiter, S. (2010). Social simulations: improving interdisciplinary understanding of scientific positioning and validity, Journal of Artificial Societies and Social Simulation, 13 (1) 10. DOI: 10.18564/jasss.1590 https://www.jasss.org/13/1/10.html

Benzmüller, C., Parent, X.r, van der Torre, L. (2019). Designing Normative Theories for Ethical and Legal Reasoning: LogiKEy Framework, Methodology, and Tool Support. arXiv. doi: http://arxiv.org/abs/1903.10187

Bornet, P. (2025). The Power of Random: Why Unconventional Thinking is Your Secret Weapon in the AI Age. Linkedin, 15. 01. https://www.linkedin.com/pulse/power-random-why-unconventional-thinking-your-secret-weapon-bornet-94s6e/

Boyles, R., James M. (2018). A Case for Machine Ethics in Modeling Human-Level Intelligent Agents. Kritike, 12 (1), 182–200. https://www.kritike.org/journal/issue_22/boyles_june2018.pdf

Brewster, C., Buckingham S., O’Hara, K., Simon, Fuller, S.., Shum, S.B., et al. (2004). Knowledge Representation with Ontologies: The Present and Future. IEEE Intelligent Systems, 19 (1), 72-81. doi:10.1109/MIS.2004.1265889.

De Bellis, A. F., Umbrello, S. (2018). "A Value-Sensitive Design Approach to Intelligent Agents" Artificial Intelligence Safety and Security. pp. 395-410. doi: 10.13140/RG.2.2.17162.77762

Ess, Ch. (2004). Revolution? What Revolution? Successes and limits of computing technologies in philosophy and religion. Blackwell Publishers, doi: https://doi.org/10.1002/9780470999875.CH12

Floridi, L. (2023). The Ethics of Artificial Intelligence - Principles, Challenges, and Opportunities. Oxford: Oxford University Press.

Floridi, L. (ed.) (2015). The Onlife Manifesto. Being Human in a Hyperconnected Era. Springer Open ISBN 978-3-319-04093-6 (eBook).

Institute of Ethics in AI. Oxford University's Institute for Ethics in AI. Tackling the ethical challenges posed by Artificial Intelligence. Part of @PhilFacOx and @uniofoxford.

Gerlich, M. (2025). AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical Thinking. Societies, 2025, 15(1), 6; https://doi.org/10.3390/soc15010006

Godler, Y., Miller, B., Reich, Z. (2020). Social Epistemology as a New Paradigm for Journalism and Media Studies. New Media & Society, 22(2), 213–229. https://doi.org/10.1177/1461444819856922

Gorichanaz, T., Furner, J., Ma, L., Bawden, D., Robinson, L., Dixon, D., Herold, K., Søe, S.O., Martens, B.V., & Floridi, L. (2020). Information and design: book symposium on Luciano Floridi's The Logic of Information. J. Documentation, 76, 586-616.

León, M. (2024). Fuzzy Cognitive Maps as a Bridge between Symbolic and Sub-Symbolic Artificial Intelligence. International Journal on Cybernetics & Informatics (IJCI), 13, 4, August, 57-75. https://doi.org/10.5121/ijci.2024.130406

Müller, V. C. (2021). Ethics of Artificial Intelligence". Anthony Elliott (ed.), The Routledge social science handbook of AI. London: Routledge https://core.ac.uk/download/305120702.

Nag Hammadi library. Wikipedia. The Free Encyclopedia. https://en.wikipedia.org/wiki/Nag_Hammadi_library

Páez, A. (2019). The Pragmatic Turn in Explainable Artificial Intelligence (XAI). Minds and Machines, 29, 441–459. https://link.springer.com/article/10.1007/s11023-019-09502-w

Rapaport, W. J. (2005). Philosophy of Computer Science: An Introductory Course. Teaching Philosophy, 28:4, 319-341. https://cse.buffalo.edu/~rapaport/Papers/rapaport_phics.pdf

Shampagne, M. (2025). https://www.academia.edu/?u=VBp3kE

Schrage, M., & Kiron, D. (2025). Philosophy eats AI. MIT Sloan Management Review, (Reprint#66311), 1–19. https://sloanreview.mit.edu/article/philosophy-eats-ai/

Опубліковано
2025-06-30
Цитовано
Як цитувати
Вяткіна, Н. (2025). КУРС "ДОСЛІДНИЦЬКІ МЕТОДИ Й АНАЛІЗ У ФІЛОСОФСЬКИХ ДОСЛІДЖЕННЯХ": ШІ ЯК ІНСТРУМЕНТ, ВИКЛИК І ДЗЕРКАЛО ЛЮДСЬКИХ НЕДОЛІКІВ. Вісник Харківського національного університету імені В. Н. Каразіна. Серія «Філософія. Філософські перипетії», (72), 107-116. https://doi.org/10.26565/2226-0994-2025-72-10
Номер
Розділ
Статті