ВИПАДКОВІСТЬ, НЕВИЗНАЧЕНІСТЬ І КОГНІТИВНА СВОБОДА В СУСПІЛЬСТВІ ДАНИХ
Анотація
Сучасна епоха Big Data, у якій величезні обсяги інформації та предиктивна аналітика слугують інструментами передбачення людської поведінки, ставить під сумнів реальність свободи волі та автономії особистості. У запропонованому дослідженні розглянуто філософську проблему співвідношення свободи дії та контролю в умовах тотального прогнозування через алгоритми predictive analytics. Формулюється питання: чи зберігається свобода, якщо кожен вчинок потенційно передбачено алгоритмічно. Застосовано міждисциплінарний підхід, який поєднує концептуальний аналіз і історичну аналогію для вивчення впливу алгоритмічного передбачення на когнітивну свободу. Проведено огляд сучасних досліджень у галузях етики штучного інтелекту, algorithmic governance і філософії технологій. Простежено еволюцію суспільства прогнозів: від перших спроб демографічного обліку до сьогодення, коли datafication (оцифровка життя) перетворює практично кожен аспект поведінки на дані. Особливу увагу приділено феномену алгоритмічної нормалізації — тенденції алгоритмів формувати очікувані зразки поведінки — та її впливу на індивідуальну автономію. Запропоновано концепцію, згідно з якою невизначеність і випадковість людських дій є не вадами, а необхідною умовою збереження когнітивної свободи в цифрову епоху. У висновках обґрунтовано, що свобода дії можлива навіть за умов домінування Big Data, але вимагає активного підтримання рандомізації та охорони простору непередбачуваності у поведінці. Такий підхід відкриває нові горизонти для філософії свободи в добу цифровізації й ставить перед етикою алгоритмів завдання врахування цінності випадковості задля підтримки людської автономії. Чи не ризикує свобода вибору перетворитися на ілюзію в світі, де на основі даних можна не лише прогнозувати, а й скеровувати рішення особистості?
Завантаження
Посилання
Brunton, F., & Nissenbaum, H. (2015). Obfuscation: A User’s Guide for Privacy and Protest. Cambridge, MA: MIT Press.
Deleuze, G. (1992). Postscript on the societies of control. October, 59(Winter), 3–7.
Downey, R., & Hirschfeldt, D. (2010). Algorithmic Randomness and Complexity. Berlin, Germany: Springer.
Fairfield, J., & Reynolds, N. (2022). Griswold for Google: Algorithmic determinism and decisional privacy. The Southern Journal of Philosophy, 60(1), 5–37. https://doi.org/10.1111/sjp.12454
Foucault, M. (1995). Discipline and punish: The birth of the prison (A. Sheridan, Trans.). New York, NY: Vintage Books.
Foucault, M. (1976). The history of sexuality: Volume 1: An introduction (R. Hurley, Trans.). New York, NY: Pantheon Books
Habibzai, H. (2024). The Theory of Digital Surveillance and Influence (TDSI). Wikipedia. https://en.wikipedia.org/wiki/The_Theory_of_Digital_Surveillance_and_Influence_TDSI
Hacking, I. (1990). The Taming of Chance. Cambridge, UK: Cambridge University Press.
Han, B.-C. (2017). Psychopolitics: Neoliberalism and New Technologies of Power. London, UK: Verso.
Kavenna, J. (2019, October 4). Shoshana Zuboff: ‘Surveillance capitalism is an assault on human autonomy’. The Guardian. https://www.theguardian.com/books/2019/oct/04/shoshana-zuboff-surveillance-capitalism-assault-human-automomy-digital-privacy
Lyon, D. (2018). The Culture of Surveillance: Watching as a Way of Life. Cambridge, UK: Polity Press.
Martin, K. (2023). Predatory predictions and the ethics of predictive analytics. Journal of the Association for Information Science and Technology, 74(1), 3–14. https://doi.org/10.1002/asi.24743
Mejias, U. A., & Couldry, N. (2019). Datafication. Internet Policy Review, 8(4). https://doi.org/10.14763/2019.4.1428
Milossi, M., Alexandropoulou-Egyptiadou, E., & Psannis, K. E. (2021). AI Ethics: Algorithmic determinism or self-determination? The GDPR approach. IEEE Access, 9, 58455–58466. https://doi.org/10.1109/ACCESS.2021.3072782
Mühlhoff, R. (2021). Predictive privacy: Towards an applied ethics of data analytics. Ethics and Information Technology, 23(4), 675–690. https://doi.org/10.1007/s10676-021-09606-x
Mühlhoff, R. (2023). Die Macht der Daten: Warum Künstliche Intelligenz eine Frage der Ethik ist. Göttingen, Germany: V&R unipress. https://doi.org/10.14220/9783737015523
Nguyen, C. T. (2025). You can't optimize your way to being a good person. Vox. https://www.vox.com/the-highlight/387570/moral-optimization
Pasquale, F. (2015). The Black Box Society: The Secret Algorithms That Control Money and Information. Cambridge, MA: Harvard University Press.
Quetelet, A. (2013). A Treatise on Man and the Development of His Faculties (R. Knox, Trans.). Cambridge: Cambridge University Press. (Original work published 1842)
Schlund, R., & Zitek, E. M. (2024). Algorithmic versus human surveillance leads to lower perceptions of autonomy and increased resistance. Communications Psychology, 2, 53. https://doi.org/10.1038/s44271-024-00102-8
Sloan, R. H., & Warner, R. (2019). Algorithms and human freedom. SSRN (Working Paper No. 3351960). https://doi.org/10.2139/ssrn.3351960
Susser, D., Roessler, B., & Nissenbaum, H. (2019). Technology, autonomy, and manipulation. Internet Policy Review, 8(2), 1–22. https://doi.org/10.14763/2019.2.1410
Wachter, S., Mittelstadt, B., & Russell, C. (2017). Counterfactual explanations without opening the black box: Automated decisions and the GDPR. Harvard Journal of Law & Technology, 31(2), 841–887. https://doi.org/10.2139/ssrn.3063289
Wired. (2021). If AI is predicting your future, are you still free? WIRED. https://www.wired.com/story/algorithmic-prophecies-undermine-free-will
Wired. (2023). TikTok is letting people shut off its infamous algorithm—and think for themselves. WIRED. https://www.wired.com/story/tiktok-has-started-to-let-people-think-for-themselves
Yeung, K. (2017). Algorithmic regulation: A critical interrogation. Regulation & Governance, 12(4), 505–523. https://doi.org/10.1111/rego.12158
Zuboff, S. (2019). The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. New York, NY: PublicAffairs.