СТРУКТУРА ПОЯСНЮВАЛЬНОГО ШТУЧНОГО ІНТЕЛЕКТУ (ПШІ) В СИСТЕМАХ ВИЯВЛЕННЯ ФЕЙКОВИХ НОВИН НА ОСНОВІ МАШИННОГО НАВЧАННЯ: ПОСИЛЕННЯ ПРОЗОРОСТІ, ДОВІРИ ТА СУБ'ЄКТНОСТІ КОРИСТУВАЧІВ
DOI:
https://doi.org/10.32689/maup.it.2025.2.4Ключові слова:
виявлення фейкових новин, пояснювальний штучний інтелект (ПШІ), машинне навчання, довірений ШІ, концептуальна структура, програмна інженерія, дезінформаціяАнотація
Предметом цієї статті є критична потреба в інтерпретованості систем виявлення фейкових новин на основі машинного навчання (МН) та пропозиція нової концептуальної структури для систематичної інтеграції Пояснювального Штучного Інтелекту (ПШІ) для її вирішення.Метою є посилення прозорості, довіри користувачів та ефективної модерації, тим самим покращуючи боротьбу зі значною загрозою онлайн-дезінформації. Запропонована методологія передбачає визначення ключових архітектурних компонентів для інтеграції ПШІ в робочі процеси виявлення фейкових новин, співвіднесення різноманітних методів ПШІ (наприклад, LIME, SHAP, механізми уваги) зі специфічними потребами в поясненнях різних зацікавлених сторін (кінцевих користувачів, журналістів, модераторів, розробників) та врахування проблем мультимодальних фейкових новин. Потенційні переваги та операційні характеристики цієї структури концептуально ілюструються за допомогою модельованих експериментальних сценаріїв та наочних прикладів.Наукова новизна цієї роботи полягає в її комплексній, орієнтованій на зацікавлених сторін структурі ПШІ, спеціально адаптованій до складнощів виявлення фейкових новин. На відміну від ситуативних застосувань, ця структура пропонує систематичний підхід, що охоплює мультимодальний контент, визначає архітектурні міркування для інтеграції та пов'язує типи пояснень з диференційованими вимогами користувачів, маючи на меті більш цілісне вирішення проблеми «чорної скриньки» в цій галузі. Висновки з цього концептуального дослідження свідчать, що запропонована структура ПШІ забезпечує структурований шлях до розробки більш надійних, підзвітних та ефективних систем виявлення фейкових новин на основі ШІ. Прогнозується, що її впровадження посилить прозорість, покращить суб'єктність користувачів в оцінці інформації, полегшить вдосконалення моделей та підтримає надійну співпрацю людини та ШІ, тим самим роблячи внесок у фундаментальний підхід для майбутньої емпіричної валідації у боротьбі з онлайн-дезінформацією.
Посилання
Adadi A., Berrada M. Peeking Inside the Black-Box: A Survey on Explainable Artificial Intelligence (XAI). IEEE Access. 2018. Vol. 6. P. 52138–52160. DOI: 10.1109/ACCESS.2018.2870052.
Alaskar R., KP S. Explainable AI for deepfake detection: A review. MDPI Applied Sciences. 2023. Vol. 13, No. 5. Art. 3021. DOI: 10.3390/app13053021.
Arrieta A. B. et al. Explainable Artificial Intelligence (XAI): Concepts, taxonomies, opportunities and challenges toward responsible AI. Information Fusion. 2020. Vol. 58. P. 82–115. DOI: 10.1016/j.inffus.2019.12.012.
Barredo Arrieta A. et al. On the explainability of mbox{Artifcial} Intelligence in fake news detection: mbox{Challenges} and future directions. TechRxiv. Preprint. 2022. DOI: 10.36227/techrxiv.19309205.v1.
Doshi-Velez F., Kim B. Towards A Rigorous Science of Interpretable Machine Learning. arXiv. Preprint arXiv:1702.08608. 2017. URL: https://arxiv.org/abs/1702.08608 (Last accessed: 17.05.2025).
Guidotti R. et al. A Survey of Methods for Explaining Black Box Models. ACM Computing Surveys. 2018. Vol. 51, No. 5. Art. 93. P. 1–42. DOI: 10.1145/3236009.
Linardatos P., Papastefanopoulos V., Kotsiantis S. Explainable AI: A Review of Machine Learning Interpretability Methods. Entropy. 2021. Vol. 23, No. 1. Art. 18. DOI: 10.3390/e23010018.
Lundberg S. M., Lee S.-I. A Unified Approach to Interpreting Model Predictions. Advances in Neural Information Processing Systems 30 (NIPS 2017). 2017. P. 4765–4774. URL: https://papers.nips.cc/paper/2017/hash/8a20a8621978632d76c43dfd28b67767-Abstract.html (Last accessed: 17.05.2025).
Ribeiro M. T., Singh S., Guestrin C. "Why Should I Trust You?": Explaining the Predictions of Any Classifier. Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining (KDD '16). 2016. P. 1135–1144. DOI: 10.1145/2939672.2939778.
Shneiderman B. Bridging the gap between ethics and practice: guidelines for reliable, safe, and trustworthy Human-Centered AI systems. ACM Transactions on Interactive Intelligent Systems. 2020. Vol. 10, No. 4. Art. 26. P. 1–31. DOI: 10.1145/3419764.
Verma S., Dickerson J., Pruthi G. Counterfactual Explanations for Machine Learning: A Review. MLR : Workshop on Human Interpretability in Machine Learning (WHI 2020). 2020. URL: http://proceedings.mlr.press/v119/verma20a.html (Last accessed: 17.05.2025).
Zhang Y., Chen X. Explainable Recommendation: A Survey and New Perspectives. ACM Transactions on Intelligent Systems and Technology. 2020. Vol. 11, No. 5. Art. 50. P. 1–37. DOI: 10.1145/3383581.
##submission.downloads##
Опубліковано
Як цитувати
Номер
Розділ
Ліцензія
Авторське право (c) 2025 Михайло ГНАТИШИН, Олексій НЕДАШКІВСЬКИЙ

Ця робота ліцензується відповідно до Creative Commons Attribution 4.0 International License.