Проблемні питання технології машинного навчання в правоохоронній діяльності

  • Дмитро Узлов Харківський національний університет імені В.Н. Каразіна https://orcid.org/0000-0003-3308-424X
  • Володимир Струков Харківський національний університет внутрішніх справ https://orcid.org/0000-0003-4722-3159
  • Владислав Гуділін Харківський національний університет внутрішніх справ https://orcid.org/0000-0002-3844-1448
  • Олексій Власов Харківський національний університет радіоелектроніки https://orcid.org/0000-0003-1619-0032
Ключові слова: машинне навчання, штучний інтелект, аналіз даних

Анотація

Правоохоронні органи все частіше використовують технології прогнозування та автоматизації, де основною технологією часто є застосування методів машинного навчання (ML). У статті розглядається проблема підзвітності та відповідальності правоохоронних органів і посадових осіб в контексті застосування моделей машинного навчання ML. Автори вказують, що підзвітність є ключовим елементом демократичної правоохоронної діяльності, але використання прогнозного програмного забезпечення може створювати проблеми у забезпеченні цієї підзвітності. Стаття обговорює, що застосування ML може призвести до завуалювання відповідальності та ускладнення підзвітності у «мультиагентних структурах», що об’єднують людей і обчислювальні інструменти. Особлива увагу приділяється непрозорості алгоритмів прикладних прогнозних моделей та автоматизованих систем прийняття рішень, що стає джерелом непорозумінь і обережності щодо їх використання. Автори висувають питання щодо того, як можна забезпечити ефективний контроль та повну звітність, коли ключові компоненти процесу прийняття рішень залишаються невідомими для широкої громадськості, посадових осіб та навіть розробників моделей. У статті стверджується, що важливі питання, пов’язані з моделями рішень ML, можуть бути розглянуті без детального знання алгоритму навчання, що дає змогу експертам правоохоронної діяльності, які не займаються ML, вивчати їх у формі інтелектуального контролю. Експерти, які не займаються ML, можуть і повинні переглядати навчені моделі ML. Автори надають «набір інструментів» в формі запитань про три елементи моделі прийняття рішень, які можуть бути якісно досліджені експертами, які не є спеціалістами з машинного навчання: навчальні дані, навчальна мета та антиципаційна оцінка результатів. Такий підхід розширює можливості цих експертів у вигляді об’єктивної оцінки використання моделей ML у правоохоронних завданнях. Основна ідея полягає в тому, що навіть без глибоких технічних знань експерти можуть аналізувати та переглядати моделі ML, розкриваючи їхню ефективність через призму власного досвіду. Даний підхід сприяє порозумінню використання технологій машинного навчання в рамках правоохоронної діяльності, розширюючи потенціал відповідних експертів, не пов’язаних з ML.

Завантаження

##plugins.generic.usageStats.noStats##

Біографії авторів

Дмитро Узлов, Харківський національний університет імені В.Н. Каразіна

В.о. декана факультету комп’ютерних наук, к.т.н., доц.

Володимир Струков, Харківський національний університет внутрішніх справ

к.т.н., доцент, професор кафедри кібербезпеки та інф.технологій

Владислав Гуділін, Харківський національний університет внутрішніх справ

магістр (кібербезпека)

Олексій Власов, Харківський національний університет радіоелектроніки

Аспірант кафедри штучного інтелекту факультету комп'ютерних наук

Посилання

Halterlein, J. and Ostermeier, L. (2018). ‘Special Issue: Predictive Security Technologies’. European Journal for Security Research 3(2): 91–94.DOI: https://doi.org/10.1007/s41125-018-0034-z

Hughes, D. (2017). ‘Robot Investigators ‘Could Be Used to Examine Documents in Criminal Cases’. The Independent (14 December 2017). https://www.independent.co.uk (accessed 20 November 2018).

Bennett Moses, L. and Chan, J. (2016). ‘Algorithmic Prediction in Policing: Assumptions, Evaluation, and Accountability’. Policing and Society 28 (7): 1–17.DOI: https://doi.org/10.1080/10439463.2016.1253695

Ratcliffe, J. H. (2016). Intelligence-Led Policing. Abingdon, Oxon; New York: Routledge. DOI: https://doi.org/10.4324/9781315717579

Innes, M. and Sheptycki, J. W. (2004). ‘From Detection to Disruption: Intelligence and the Changing Logic of Police Crime Control in the United Kingdom’. International Criminal Justice Review 14(1): 1–24.DOI: https://doi.org/10.1177/105756770401400101

Goldstein, J. (1960). ‘Police Discretion Not to Invoke the Criminal Process: Low-Visibility Decisions in the Administration of Justice’. The Yale Law Journal 69(4): 543–594.

Burrell, J. (2016). ‘How the Machine ‘Thinks’: Understanding Opacity in Machine Learning Algorithms’. Big Data & Society 3(1): 1–12.DOI: https://doi.org/10.1177/2053951715622512

Mittelstadt, B. D., Allo, P., Taddeo, M., Wachter, S. and Floridi, L. (2016). ‘The Ethics of Algorithms: Mapping the Debate’. Big Data & Society 3(2): 1–21.DOI: https://doi.org/10.1177/2053951716679679

Strukov V.M., Uzlov D.Yu. et al. Information Technologies in Law Enforcement. Part 1. High-Tech Trends in Law

Enforcement of Foreign Countries. Kharkiv: LLC 'DISA PLUS', 2020. [In Ukrainian]

Hughes, D. (2017). ‘Robot Investigators ‘Could Be Used to Examine Documents in Criminal Cases’. The Independent (14 December 2017). https://www.independent.co.uk (accessed 20 November 2018).

Mittelstadt, B. D., Allo, P., Taddeo, M., Wachter, S. and Floridi, L. (2016). ‘The Ethics of Algorithms: Mapping the Debate’. Big Data & Society 3(2): 1–21.DOI: https://doi.org/10.1177/2053951716679679

Norwegian Board of Technology (2018). Artificial Intelligence: Opportunities, Challenges and a Plan for Norway. Oslo: Norwegian Board of Technology. DOI: https://doi.org/10.5617/nmi.9950

Lum, K. and Isaac, W. (2016). ‘To Predict and Serve?’. Significance 13(5): 14–19.DOI: https://doi.org/10.1111/j.1740-9713.2016.00960.x

Mohler, G. O., Short, M. B., Malinowski, S. et al. (2015). ‘Randomized Controlled Field Trials of Predictive Policing’. Journal of the American Statistical Association 110(512): 1399–1411.DOI: https://doi.org/10.1080/01621459.2015.1077710

Zhang, Lemoine, B. and Mitchell, M. (2018). Mitigating Unwanted Biases with Adversarial Learning. Proceedings of the 2018 AAAI/ACM Conference on AI, Ethics, and Society, ACM. pp. 335–340.DOI: https://doi.org/10.1145/3278721.3278779

Wu, X. and Zhang, X. (2016). ‘Responses to Critiques on Machine Learning of Criminality Perceptions’ (Addendum of arXiv: 1611.04135). ArXiv: 1611.04135 [Cs]. http://arxiv.org/abs/1611.04135 (accessed 8 January 2019).

Beck, C. and McCue, C. (2009). ‘Predictive Policing: What Can we Learn from Wal-Mart and Amazon about Fighting Crime in a Recession?’. Police Chief 76 (11): 18–24

Sklansky, D. A. (2008). Democracy and the Police. Stanford, CA: Stanford University Press. DOI: https://doi.org/10.1515/9780804763226

Toby Segaran (2008) Programming Collective Intelligence. Published by O’Reilly Media Inc., ISBN-10:0-596-52932-5. https://archive.org/details/programmingcolle00sega_0/page/n7/mode/2up

Опубліковано
2023-12-28
Цитовано
Як цитувати
Узлов, Д., Струков, В., Гуділін, В., & Власов, О. (2023). Проблемні питання технології машинного навчання в правоохоронній діяльності. Комп’ютерні науки та кібербезпека, (2), 6-15. https://doi.org/10.26565/2519-2310-2023-2-01
Номер
Розділ
Статті