ВИПАДКОВІСТЬ, НЕВИЗНАЧЕНІСТЬ І КОГНІТИВНА СВОБОДА В СУСПІЛЬСТВІ ДАНИХ

  • Костянтин Володими Суспіцин аспірант кафедри теорії культури і філософії науки Харківського національного університету імені В.Н. Каразіна https://orcid.org/0009-0005-1773-4590
Ключові слова: випадковість, невизначеність, когнітивна свобода, суспільство даних, алгоритмічний контроль, прогнозування, автономія, алгоритмічна нормалізація, обфускація даних, предиктивна аналітика, цифрова етика

Анотація

Сучасна епоха Big Data, у якій величезні обсяги інформації та предиктивна аналітика слугують інструментами передбачення людської поведінки, ставить під сумнів реальність свободи волі та автономії особистості. У запропонованому дослідженні розглянуто філософську проблему співвідношення свободи дії та контролю в умовах тотального прогнозування через алгоритми predictive analytics. Формулюється питання: чи зберігається свобода, якщо кожен вчинок потенційно передбачено алгоритмічно. Застосовано міждисциплінарний підхід, який поєднує концептуальний аналіз і історичну аналогію для вивчення впливу алгоритмічного передбачення на когнітивну свободу. Проведено огляд сучасних досліджень у галузях етики штучного інтелекту, algorithmic governance і філософії технологій. Простежено еволюцію суспільства прогнозів: від перших спроб демографічного обліку до сьогодення, коли datafication (оцифровка життя) перетворює практично кожен аспект поведінки на дані. Особливу увагу приділено феномену алгоритмічної нормалізації — тенденції алгоритмів формувати очікувані зразки поведінки — та її впливу на індивідуальну автономію. Запропоновано концепцію, згідно з якою невизначеність і випадковість людських дій є не вадами, а необхідною умовою збереження когнітивної свободи в цифрову епоху. У висновках обґрунтовано, що свобода дії можлива навіть за умов домінування Big Data, але вимагає активного підтримання рандомізації та охорони простору непередбачуваності у поведінці. Такий підхід відкриває нові горизонти для філософії свободи в добу цифровізації й ставить перед етикою алгоритмів завдання врахування цінності випадковості задля підтримки людської автономії. Чи не ризикує свобода вибору перетворитися на ілюзію в світі, де на основі даних можна не лише прогнозувати, а й скеровувати рішення особистості?

Завантаження

##plugins.generic.usageStats.noStats##

Посилання

Brunton, F., & Nissenbaum, H. (2015). Obfuscation: A User’s Guide for Privacy and Protest. Cambridge, MA: MIT Press.

Deleuze, G. (1992). Postscript on the societies of control. October, 59(Winter), 3–7.

Downey, R., & Hirschfeldt, D. (2010). Algorithmic Randomness and Complexity. Berlin, Germany: Springer.

Fairfield, J., & Reynolds, N. (2022). Griswold for Google: Algorithmic determinism and decisional privacy. The Southern Journal of Philosophy, 60(1), 5–37. https://doi.org/10.1111/sjp.12454

Foucault, M. (1995). Discipline and punish: The birth of the prison (A. Sheridan, Trans.). New York, NY: Vintage Books.

Foucault, M. (1976). The history of sexuality: Volume 1: An introduction (R. Hurley, Trans.). New York, NY: Pantheon Books

Habibzai, H. (2024). The Theory of Digital Surveillance and Influence (TDSI). Wikipedia. https://en.wikipedia.org/wiki/The_Theory_of_Digital_Surveillance_and_Influence_TDSI

Hacking, I. (1990). The Taming of Chance. Cambridge, UK: Cambridge University Press.

Han, B.-C. (2017). Psychopolitics: Neoliberalism and New Technologies of Power. London, UK: Verso.

Kavenna, J. (2019, October 4). Shoshana Zuboff: ‘Surveillance capitalism is an assault on human autonomy’. The Guardian. https://www.theguardian.com/books/2019/oct/04/shoshana-zuboff-surveillance-capitalism-assault-human-automomy-digital-privacy

Lyon, D. (2018). The Culture of Surveillance: Watching as a Way of Life. Cambridge, UK: Polity Press.

Martin, K. (2023). Predatory predictions and the ethics of predictive analytics. Journal of the Association for Information Science and Technology, 74(1), 3–14. https://doi.org/10.1002/asi.24743

Mejias, U. A., & Couldry, N. (2019). Datafication. Internet Policy Review, 8(4). https://doi.org/10.14763/2019.4.1428

Milossi, M., Alexandropoulou-Egyptiadou, E., & Psannis, K. E. (2021). AI Ethics: Algorithmic determinism or self-determination? The GDPR approach. IEEE Access, 9, 58455–58466. https://doi.org/10.1109/ACCESS.2021.3072782

Mühlhoff, R. (2021). Predictive privacy: Towards an applied ethics of data analytics. Ethics and Information Technology, 23(4), 675–690. https://doi.org/10.1007/s10676-021-09606-x

Mühlhoff, R. (2023). Die Macht der Daten: Warum Künstliche Intelligenz eine Frage der Ethik ist. Göttingen, Germany: V&R unipress. https://doi.org/10.14220/9783737015523

Nguyen, C. T. (2025). You can't optimize your way to being a good person. Vox. https://www.vox.com/the-highlight/387570/moral-optimization

Pasquale, F. (2015). The Black Box Society: The Secret Algorithms That Control Money and Information. Cambridge, MA: Harvard University Press.

Quetelet, A. (2013). A Treatise on Man and the Development of His Faculties (R. Knox, Trans.). Cambridge: Cambridge University Press. (Original work published 1842)

Schlund, R., & Zitek, E. M. (2024). Algorithmic versus human surveillance leads to lower perceptions of autonomy and increased resistance. Communications Psychology, 2, 53. https://doi.org/10.1038/s44271-024-00102-8

Sloan, R. H., & Warner, R. (2019). Algorithms and human freedom. SSRN (Working Paper No. 3351960). https://doi.org/10.2139/ssrn.3351960

Susser, D., Roessler, B., & Nissenbaum, H. (2019). Technology, autonomy, and manipulation. Internet Policy Review, 8(2), 1–22. https://doi.org/10.14763/2019.2.1410

Wachter, S., Mittelstadt, B., & Russell, C. (2017). Counterfactual explanations without opening the black box: Automated decisions and the GDPR. Harvard Journal of Law & Technology, 31(2), 841–887. https://doi.org/10.2139/ssrn.3063289

Wired. (2021). If AI is predicting your future, are you still free? WIRED. https://www.wired.com/story/algorithmic-prophecies-undermine-free-will

Wired. (2023). TikTok is letting people shut off its infamous algorithm—and think for themselves. WIRED. https://www.wired.com/story/tiktok-has-started-to-let-people-think-for-themselves

Yeung, K. (2017). Algorithmic regulation: A critical interrogation. Regulation & Governance, 12(4), 505–523. https://doi.org/10.1111/rego.12158

Zuboff, S. (2019). The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. New York, NY: PublicAffairs.

Опубліковано
2024-12-30
Цитовано
Як цитувати
Суспіцин, К. В. (2024). ВИПАДКОВІСТЬ, НЕВИЗНАЧЕНІСТЬ І КОГНІТИВНА СВОБОДА В СУСПІЛЬСТВІ ДАНИХ. Вісник Харківського національного університету імені В. Н. Каразіна. Серія «Теорія культури і філософія науки», (70), 74-80. https://doi.org/10.26565/2306-6687-2024-70-08