Інформаційні технології та суспільство
https://journals.maup.com.ua/index.php/it
<p><strong><img style="float: left; padding-right: 10px; padding-bottom: 10px;" src="http://journals.maup.com.ua/public/site/images/admin/it.png" alt="" width="250" height="351" />ISSN (Print): </strong><a href="https://portal.issn.org/resource/ISSN/2786-5460" target="_blank" rel="noopener">2786-5460</a><strong><br />ISSN (Online): </strong><a href="https://portal.issn.org/resource/ISSN/2786-5479" target="_blank" rel="noopener">2786-5479</a><strong><br />DOI: </strong><a href="https://search.crossref.org/?q=10.32689%2Fmaup.it&from_ui=yes" target="_blank" rel="noopener">10.32689/maup.it</a><strong><br />Галузь знань: </strong>iнформаційні технології.<br /><strong>Періодичність: </strong>4 рази на рік.<br /><strong>Фахова реєстрація (категорія «Б»): </strong><a href="https://mon.gov.ua/ua/npa/pro-zatverdzhennya-rishen-atestacijnoyi-kolegiyi-ministerstva-vid-30-listopada-2021-roku" target="_blank" rel="noopener">Наказ МОН України № 1290 від 30 листопада 2021 року (додаток 3)</a><br /><strong>Спеціальності: </strong>F2 Інженерія програмного забезпечення, F3 Комп’ютерні науки, F4 Системний аналіз та наука про дані, F5 Кібербезпека та захист інформації, F6 Інформаційні системи і технології, F7 Комп’ютерна інженерія.</p>Publishing House Helveticauk-UAІнформаційні технології та суспільство2786-5460ФОРМАЛІЗАЦІЯ ВИМОГ ДО ІНТЕЛЕКТУАЛЬНИХ СИСТЕМ ПІДТРИМКИ УХВАЛЕННЯ РІШЕНЬ У ЗАДАЧАХ ОПТИМІЗАЦІЇ ХМАРНИХ РЕСУРСІВ
https://journals.maup.com.ua/index.php/it/article/view/4898
<p>У контексті сучасних хмарних обчислювальних середовищ зростає необхідність впровадження автоматизованих механізмів управління ресурсами з метою забезпечення належного рівня продуктивності та оптимізації витрат. Інтелектуальні системи підтримки прийняття рішень виступають ключовим компонентом таких механізмів, оскільки забезпечують аналіз динамічних метрик і прогнозування змін навантаження для адаптивного масштабування.Мета. Розробка формальної моделі вимог до інтелектуальних систем підтримки прийняття рішень у задачах оптимізації ресурсів хмарної інфраструктури.Методологія. У межах дослідження здійснено аналіз існуючих підходів до автоскейлінгу та інтелектуальних рішень для керування хмарними середовищами. Застосовано методи системного аналізу для виокремлення категорій вимог та побудови онтологічної моделі, яка включає такі сутності: CloudResource, MonitoringAgent, MLModel, ScalingPolicy та DecisionRecord. Експериментальна валідація виконана шляхом реалізації прототипу в середовищі Kubernetes із застосуванням Prometheus для збору метрик. Наукова новизна. Наукова новизна роботи полягає у комплексній формалізації вимог до інтелектуальних систем підтримки прийняття рішень з урахуванням як функціональних, так і нефункціональних аспектів. Зокрема, до функціональних вимог віднесено моніторинг різнорідних метрик, механізми прогнозування, генерацію рекомендацій щодо масштабування та аудит ухвалених рішень.Висновки. Отримані результати свідчать, що формалізація вимог є необхідною умовою створення надійних і прозорих інтелектуальних систем автоскейлінгу в хмарних середовищах. Запропонована модель забезпечує ефективний баланс між продуктивністю та витратами на інфраструктуру, сприяючи оптимальному використанню ресурсів без погіршення якості обслуговування. У перспективі доцільно розширити онтологію для мультихмарних і безсерверних сценаріїв, розробити методи оперативного оновлення моделей (Concept Drift) та вдосконалити механізми Explainable AI для забезпечення більш прозорого обґрунтування рекомендацій.</p>Олександр АРТАМОНОВМихайло ЛУЧКЕВИЧ
Авторське право (c) 2025 Олександр АРТАМОНОВ, Михайло ЛУЧКЕВИЧ
https://creativecommons.org/licenses/by/4.0
2025-09-232025-09-232 (17)81310.32689/maup.it.2025.2.1МОДИФІКАЦІЯ МЕТОДУ RECIPROCAL RANK FUSION ДЛЯ ПОЛІПШЕННЯ РЕЗУЛЬТАТІВ ГІБРИДНОГО ПОШУКУ У ІНФОРМАЦІЙНИХ СИСТЕМАХ З ВЕКТОРНИМИ БАЗАМИ ДАНИХ
https://journals.maup.com.ua/index.php/it/article/view/4899
<p>Метою даної роботи є удосконалення методу Reciprocal Rank Fusion (RRF) для підвищення точності об’єднання результатів гібридного пошуку в інформаційних системах, що використовують векторні бази даних. Гібридний пошук передбачає інтеграцію результатів, отриманих за допомогою різних стратегій пошуку – лексичних, семантичних, візуальних тощо. Однак традиційна формула RRF не враховує ступінь релевантності документів, що може призводити до ситуацій, коли низько релевантні результати однієї пошукової стратегії впливають на високо релевантні результати іншої. У результаті відбувається зміщення бажаного порядку документів у фінальному списку результатів.Методологія дослідження ґрунтується на аналізі оцінок релевантності, отриманих у процесі лексичного та семантичного пошуку. Запропоновано підхід до класифікації результатів за групами релевантності на основі поетапної деградації початкового запиту. Далі запропоновано модифіковану формулу RRF, в якій ранги документів коригуються з урахуванням групи релевантності через експоненціальну функцію. Це дозволяє зменшити вплив результатів, що мають низьку релевантність, на документи з високою відповідністю. Для експериментальної перевірки було використано датасет MS MARCO, що містить реальні пошукові запити й ручні оцінки релевантності.Порівняння класичного та модифікованого RRF здійснювалося за метрикою MRR@10.Наукова новизна роботи полягає у використанні динамічного, контекстно-залежного підходу до формування груп релевантності без необхідності в повторних зверненнях до бази даних чи індексації даних. Запропоноване рішення обмежується лише текстом запиту, що забезпечує його ефективність і не вимагає відносно великих обчислювальних витрат. На відміну від існуючих модифікацій RRF, запропонований підхід дозволяє гнучко адаптувати ваги ранжування на основі семантичного та лексичного динамічного аналізу.Висновки дослідження підтверджують, що запропонована модифікація методу RRF покращує позицію релевантного документа у результатах гібридного пошуку. Модифікований метод демонструє вищу метрику MRR@10 (0.1880 проти 0.1718 у класичному RRF), що свідчить про зменшення негативного впливу нерелевантних результатів.</p>Микола БІЛИЙЄвген КРИЛОВ
Авторське право (c) 2025 Микола БІЛИЙ, Євген КРИЛОВ
https://creativecommons.org/licenses/by/4.0
2025-09-232025-09-232 (17)141910.32689/maup.it.2025.2.2ПІДХОДИ DESIGN SCIENCE RESEARCH ДО ПОБУДОВИ ІНТЕЛЕКТУАЛЬНОЇ СИСТЕМИ КОНТРАКТ-ТЕСТУВАННЯ
https://journals.maup.com.ua/index.php/it/article/view/4900
<p>У сучасних умовах зростаючої складності мікросервісних інформаційних систем особливого значення набуває розробка ефективних підходів до забезпечення їхньої надійності та стабільності. Мета роботи. У статті обґрунтовано підходи методології design science research (DSR) для розробки інтелектуальної системи контракт-тестування мікросервісних інформаційних систем. Основним завданням є створення артефакту, здатного автоматично генерувати, оптимізувати та аналізувати інтерфейсні контракти на основі реальних експлуатаційних даних і телеметрії, з метою зниження обсягу рутинних перевірок і підвищення надійності системи. Методологія. Використано класичну DSR-рамку, що поєднує етапи ідентифікації проблеми й мотивації, формалізації вимог, визначення цілей рішення, дизайну й розробки артефакту, його демонстрації та оцінювання в реальних умовах, а також поширення результатів. Упроцесі реалізації було спроектовано чотири взаємопов’язані модулі: збір телеметрії, генератор контрактів, аналітичний двигун та DevOps-інтерфейс.Наукова новизна. Запропоновано унікальне поєднання DSR-парадигми з інтелектуальними механізмами адаптивного тестування: уперше реалізовано автоматичне виявлення змін контрактів із точністю ≥ 95 %, застосування активного навчання для пріоритизації тестів із збереженням ≥ 95 % покриття критичних сценаріїв та інтеграцію прогнозування «гарячих» точок взаємодії з помилковою тривожністю ≤ 5 %. Підходи активного навчання забезпечили скорочення набору тестів на 30–40 % і зменшення фальшивих провалів із 8 % до 3 %.Висновки. Проведені експерименти на стенді з 15 мікросервісами й 3000 контракт-тестами підтвердили ефективність системи: час CI-пайплайну скоротився на 25 %, обсяг тестів ‒ на 30 %, зберігши 98 % покриття ключових контрактів. Подальші дослідження передбачають розширення моделі активного навчання з урахуванням нелінійних залежностей між контрактами, інтеграцію прогнозування змін API на основі аналізу історії комітів у Git та застосування reinforcement learning для оптимізації стратегій запуску тестів у реальному часі. Загалом, використання DSR-підходу відкриває широкі можливості для створення «розумних» засобів тестування мікросервісних архітектур, що сприятиме підвищенню їх надійності та зниженню експлуатаційних витрат.</p>Олег ГАРАСИМЧУКМихайло ЛУЧКЕВИЧ
Авторське право (c) 2025 Олег ГАРАСИМЧУК, Михайло ЛУЧКЕВИЧ
https://creativecommons.org/licenses/by/4.0
2025-09-232025-09-232 (17)202310.32689/maup.it.2025.2.3СТРУКТУРА ПОЯСНЮВАЛЬНОГО ШТУЧНОГО ІНТЕЛЕКТУ (ПШІ) В СИСТЕМАХ ВИЯВЛЕННЯ ФЕЙКОВИХ НОВИН НА ОСНОВІ МАШИННОГО НАВЧАННЯ: ПОСИЛЕННЯ ПРОЗОРОСТІ, ДОВІРИ ТА СУБ'ЄКТНОСТІ КОРИСТУВАЧІВ
https://journals.maup.com.ua/index.php/it/article/view/4901
<p>Предметом цієї статті є критична потреба в інтерпретованості систем виявлення фейкових новин на основі машинного навчання (МН) та пропозиція нової концептуальної структури для систематичної інтеграції Пояснювального Штучного Інтелекту (ПШІ) для її вирішення.Метою є посилення прозорості, довіри користувачів та ефективної модерації, тим самим покращуючи боротьбу зі значною загрозою онлайн-дезінформації. Запропонована методологія передбачає визначення ключових архітектурних компонентів для інтеграції ПШІ в робочі процеси виявлення фейкових новин, співвіднесення різноманітних методів ПШІ (наприклад, LIME, SHAP, механізми уваги) зі специфічними потребами в поясненнях різних зацікавлених сторін (кінцевих користувачів, журналістів, модераторів, розробників) та врахування проблем мультимодальних фейкових новин. Потенційні переваги та операційні характеристики цієї структури концептуально ілюструються за допомогою модельованих експериментальних сценаріїв та наочних прикладів.Наукова новизна цієї роботи полягає в її комплексній, орієнтованій на зацікавлених сторін структурі ПШІ, спеціально адаптованій до складнощів виявлення фейкових новин. На відміну від ситуативних застосувань, ця структура пропонує систематичний підхід, що охоплює мультимодальний контент, визначає архітектурні міркування для інтеграції та пов'язує типи пояснень з диференційованими вимогами користувачів, маючи на меті більш цілісне вирішення проблеми «чорної скриньки» в цій галузі. Висновки з цього концептуального дослідження свідчать, що запропонована структура ПШІ забезпечує структурований шлях до розробки більш надійних, підзвітних та ефективних систем виявлення фейкових новин на основі ШІ. Прогнозується, що її впровадження посилить прозорість, покращить суб'єктність користувачів в оцінці інформації, полегшить вдосконалення моделей та підтримає надійну співпрацю людини та ШІ, тим самим роблячи внесок у фундаментальний підхід для майбутньої емпіричної валідації у боротьбі з онлайн-дезінформацією.</p>Михайло ГНАТИШИНОлексій НЕДАШКІВСЬКИЙ
Авторське право (c) 2025 Михайло ГНАТИШИН, Олексій НЕДАШКІВСЬКИЙ
https://creativecommons.org/licenses/by/4.0
2025-09-232025-09-232 (17)242910.32689/maup.it.2025.2.4АВТОМАТИЗАЦІЯ РЕГУЛЮВАННЯ ВОЛОГОСТІ ПІД ЧАС ОСУШУВАННЯ УТФЕЛЮ
https://journals.maup.com.ua/index.php/it/article/view/4902
<p>У статті з'ясовано, що автоматизація процесу регулювання вологості утфелю є одним із найваж- ливіших завдань сучасної харчової промисловості, яке відкриває нові можливості для підвищення ефективності виробництва, недоступні для традиційних систем керування. Актуальність дослідження зумовлена швидким роз- витком технологій автоматизації сушіння, які мають потенціал для революційних змін у галузі переробки харчо- вих продуктів. Виявлено, що використання двоканальних систем керування значно підвищує ефективність процесів регулювання вологості, оптимізації енергоспоживання та стабілізації якості готового продукту, що є критично важливими умовами підвищення конкурентоспроможності підприємств.Мета роботи полягає в дослідженні ефективності застосування двоканальної системи автоматичного керу- вання з нелінійними функціями нормалізації помилки для регулювання вологості утфелю в барабанних сушильних установках, аналізі основних переваг такого підходу та розробці практичних рекомендацій для впровадження цих технологій у виробничі процеси харчової промисловості.Методологія. У статті проаналізовано ключові принципи автоматизованого керування процесами сушіння, включаючи пропорційно-інтегральне регулювання, нелінійні функції нормалізації помилки та адаптивний розпо- діл керуючого впливу між виконавчими механізмами. Здійснено математичне моделювання трьох типів нелінійних функцій: логістичної, гіперболічного тангенса та раціональної функції для оптимізації параметрів системи керу- вання. Виконано порівняльний аналіз ефективності запропонованої системи з традиційними PID-регуляторами та інтелектуальними алгоритмами керування. Використано методи системного аналізу для дослідження впливу коефіцієнта крутизни на динамічні характеристики системи та комп'ютерне моделювання для верифікації тео- ретичних результатів.Наукова новизна. Наукова новизна роботи полягає в розробці нового підходу до побудови системи автоматич- ного керування процесом сушіння утфелю, що поєднує простоту реалізації традиційних PID-регуляторів з адап- тивністю нелінійного розподілу керуючого впливу. Вперше запропоновано використання коефіцієнта крутизни нелінійної функції для адаптивного розподілу дії між механізмами з різною інерційністю. Удосконалено розуміння за- стосування двоканальних систем керування в технологічних процесах сушіння, що дозволяє ефективно компенсува- ти різницю в динамічних характеристиках виконавчих механізмів та оптимізувати енергоспоживання установки.Висновки. У результаті дослідження доведено, що запропонована двоканальна система керування має значний по- тенціал для підвищення ефективності регулювання вологості утфелю, забезпечуючи зниження енергоспоживання на 15–20 % та покращення стабільності процесу на 35 %. Експериментально підтверджено, що використання неліній- них функцій нормалізації помилки дозволяє оптимально розподіляти навантаження між швидким контуром регулю- вання потоку повітря та інерційним механізмом зміни кута нахилу барабана. Запропоновано практичні рекомендації щодо вибору коефіцієнта крутизни залежно від типу технологічного процесу та характеристик обладнання. Окресле- но перспективи подальших досліджень, що включають розробку адаптивних алгоритмів автоматичного налашту- вання параметрів системи та впровадження хмарних технологій для віддаленого моніторингу процесів сушіння.</p>Галина ГРИГОРЧУКЛюбомир ГРИГОРЧУКВікторія БАНДУРА
Авторське право (c) 2025 Галина ГРИГОРЧУК, Любомир ГРИГОРЧУК, Вікторія БАНДУРА
https://creativecommons.org/licenses/by/4.0
2025-09-232025-09-232 (17)303810.32689/maup.it.2025.2.5ДОСЛІДЖЕННЯ ІНТЕГРАЦІЇ IT В УПРАВЛІННІ СОНЯЧНОЮ ЕНЕРГЕТИКОЮ
https://journals.maup.com.ua/index.php/it/article/view/4903
<p>Стаття присвячена комплексному дослідженню інтеграції інформаційних технологій (ІТ) у системи управління сонячною енергетикою.Метою роботи є ідентифікація інноваційних інструментів і методів, які сприяють підвищенню ефективності, оптимізації операційних процесів, а також підвищення рівня контролю та прогнозованості функціонування систем сонячної енергетики. У статті розглянуто різні аспекти застосування ІТ, включно з використанням програмного забезпечення для моніторингу та управління, систем великих даних, машинного навчання та хмарних обчислень. Описано сучасні рішення, які включають інтегровані системи управління, що дозволяють підвищити автоматизацію, зменшити ризики людських помилок і мінімізувати експлуатаційні витрати.Актуальність цього дослідження зумовлена глобальним переходом на відновлювані джерела енергії, які відіграють ключову роль у забезпеченні сталого розвитку та боротьбі зі зміною клімату. Зростаюча складність сучасних систем сонячної енергетики вимагає нових підходів до управління, які можуть забезпечити високу продуктивність за мінімальних витрат.Основні результати дослідження включають ідентифікацію ключових технологій і методів, які сприяють ефективному управлінню сонячною енергетикою. Проведений аналіз продемонстрував значний потенціал автоматизації для зниження операційних витрат і підвищення стабільності роботи систем.Наукова новизна роботи полягає у розробці концептуального підходу до впровадження інноваційних ІТ-інструментів, які орієнтовані на специфічні вимоги сонячної енергетики.Практична значущість роботи полягає у можливості застосування запропонованих рішень на реальних об’єктах сонячної енергетики. Це дозволить не лише оптимізувати витрати, але й підвищити надійність системи, забезпечуючи стабільне енергопостачання в умовах змінного попиту та кліматичних умов.Висновки. Теоретична значущість дослідження проявляється в розширенні наукового уявлення про роль ІТ в енергетичному секторі. Результати дослідження можуть слугувати основою для подальших наукових розробок у сфері управління відновлюваними джерелами енергії та сприяти розробці нових методологій управління високотехнологічними енергетичними системами.</p>Олег ЖВАЛІК
Авторське право (c) 2025 Олег ЖВАЛІК
https://creativecommons.org/licenses/by/4.0
2025-09-232025-09-232 (17)394610.32689/maup.it.2025.2.6АНАЛІЗ РЕЛЕВАНТНОСТІ ПОШУКОВОЇ ВИДАЧІ НАУКОМЕТРИЧНИХ БАЗ ДАНИХ
https://journals.maup.com.ua/index.php/it/article/view/4904
<p>Виконання наукових досліджень відкриває нові можливості пошуку наукової інформації з застосуванням наукометричних баз даних та джерел наукової інформації у відкритому доступі. Незважаючи на постійне вдосконалення пошукових алгоритмів існують проблемні питання з формуванням релевантної пошукової видачі у наукометричних базах даних. Це обумовлює необхідність проведення аналізу впливу пошукових алгоритмів наукометричних баз даних на результати пошукової видачі наукових публікацій.Метою статті є оцінка релевантності пошукової видачі наукових публікацій наукометричних баз даних Scopus, Web of Science, IEEE Xplore, ResearchGate, Google Scholar.Наукова новизна полягає у комплексному оцінюванні дослідником релевантності наукових публікацій з точки зору їх кількісних та якісних показників в процесі пошуку джерел інформації.Методологія. У дослідженні застосовано метод порівняльного аналізу результатів пошукової видачі наукових публікацій для обраної групи ключових слів «complex systems», «digital systems», «artificial intelligence», «data analysis».Зафіксовані кількісні показники наукових публікацій у пошуковій видачі з обов’язковим урахуванням їх загальної кількості у наукометричних базах даних. Проведено аналіз сформованих результатів пошукової видачі наукових публікацій у зазначених наукометричних базах. Визначено найбільш релевантні наукові публікації у кожній пошуковій видачі з точки зору відповідності їх контекстуального змісту ключовим словам у пошуковому запиті.Висновки. Виконано порівняльний аналіз релевантності наукових публікацій з обов’язковим урахуванням їх позицій у сформованій пошуковій видачі наукометричних баз даних. На основі отриманих результатів сформульовані практичні рекомендації дослідникам для отримання найбільш якісних результатів пошуку наукових публікацій.</p>Олександр ЗАДЕРЕЙКОСвітлана ЄЛЕНИЧНаталія ЛОГІНОВАОлена ТРОФИМЕНКОВолодимир ГУРА
Авторське право (c) 2025 Олександр ЗАДЕРЕЙКО, Світлана ЄЛЕНИЧ, Наталія ЛОГІНОВА, Олена ТРОФИМЕНКО, Володимир ГУРА
https://creativecommons.org/licenses/by/4.0
2025-09-232025-09-232 (17)475510.32689/maup.it.2025.2.7МЕТОДИ ВИЯВЛЕННЯ ТА БОРОТЬБИ З ДЕЗІНФОРМАЦІЄЮ ЗА ДОПОМОГОЮ ТЕХНОЛОГІЙ ШТУЧНОГО ІНТЕЛЕКТУ
https://journals.maup.com.ua/index.php/it/article/view/4905
<p>У статті розглядаються сучасні методи виявлення та боротьби з дезінформацією за допомогою технологій штучного інтелекту. Основна увага приділяється автоматизації аналізу текстової, візуальної та відеоінформації, використовуючи алгоритми машинного навчання, обробки природної мови та комп’ютерного зору.Розглянуто інструменти для моніторингу соціальних мереж, перевірки фактів і виявлення маніпуляцій у медіаконтенті. Окремо проаналізовано виклики, пов’язані з моральними аспектами, дефіцитом даних і розвитком технологій для створення фейків. Запропоновані підходи спрямовані на підвищення ефективності боротьби з дезінформацією, забезпечення інформаційної безпеки та стійкості суспільства до маніпуляцій. Мета роботи. Дослідження сучасних методів виявлення та боротьби з дезінформацією за допомогою технологій штучного інтелекту, зокрема машинного навчання, обробки природної мови та комп'ютерного зору, для підвищення інформаційної безпеки суспільства.Методологія. У роботі використано алгоритми машинного навчання, такі як згорткові нейронні мережі (CNN) та трансформерні моделі (наприклад, BERT), для аналізу текстового контенту. Для ідентифікації маніпуляцій у візуальному контенті застосовано технології комп’ютерного зору, а для аналізу поширення дезінформації в соціальних мережах – графові нейронні мережі (GNN).Наукова новизна. Запропоновано інтегрований підхід, що включає аналіз текстового, візуального та відеоконтенту одночасно. Досліджено вплив емоційного забарвлення контенту на сприйняття фейкових новин і вперше вивчено роль мультимодальних систем у боротьбі з дезінформацією.Висновки. Технології штучного інтелекту забезпечують ефективне виявлення дезінформації шляхом аналізу великих обсягів даних у реальному часі. Інтеграція мультимодальних підходів сприяє підвищенню стійкості інформаційного простору, хоча залишається необхідність розв’язання проблеми дефіциту якісних навчальних даних і врахування етичних аспектів.</p>Володимир КАРАБЧУК
Авторське право (c) 2025 Володимир КАРАБЧУК
https://creativecommons.org/licenses/by/4.0
2025-09-232025-09-232 (17)566110.32689/maup.it.2025.2.8ЕВОЛЮЦІЯ ПОНЯТЬ РИЗИКУ ТА ЇХ ВЗАЄМОЗВ’ЯЗОК ІЗ ЗАБЕЗПЕЧЕННЯМ ЯКОСТІ ІТ-ПРОДУКТІВ
https://journals.maup.com.ua/index.php/it/article/view/4906
<p>Метою дослідження є виявлення взаємозв’язків між ключовими категоріями ризиків у розробці ІТ-продуктів та показниками їх якості, з подальшою розробкою узагальненої класифікації ризиків і демонстрацією кількісного впливу на метрики програмної якості. У сучасних умовах цифрової трансформації та зростаючої складності інформаційних систем класичні підходи до управління ризиками втрачають ефективність через обмежену здатність враховувати динамічні взаємозалежності між факторами ризику, а також через фрагментарність аналізу окремих типів загроз. У зв’язку з цим дослідження зосереджене на структурному аналізі технічних, організаційних і зовнішніх ризиків у проєктах створення ПЗ, з використанням даних останніх емпіричних і прикладних публікацій.Методологія дослідження базується на системному підході з використанням контент-аналізу наукових джерел, формалізації типології ризиків та моделювання їх впливу на якість ІТ-продукту. Для обґрунтування впливу категорій ризиків на ключові характеристики ПЗ (надійність, підтримуваність, продуктивність тощо) застосовано порівняльний аналіз результатів, отриманих із рецензованих джерел. Окрему увагу приділено моделюванню ризикових взаємодій, мультиагентному підходу, машинному навчанню для прогнозування системних ризиків та автоматизованим засобам оцінювання змін якості у циклі оновлень. Наукова новизна полягає в пропозиції уніфікованої трикомпонентної класифікації ризиків (технічні, організаційні, зовнішні) як основи для узагальнення та порівняння сучасних підходів до управління ризиками в ІТ-проєктах. На відміну від існуючих підходів, запропонована класифікація дозволяє інтегрувати як кількісні, так і якісні оцінки, а також відображає міжкатегоріальні взаємозв’язки у складних інженерних середовищах. Додатково надано формалізований опис методу побудови таблиці порівняльного впливу ризиків, що базується на трансформації даних з емпіричних досліджень у відсоткові метрики впливу на якість.У результаті проведеного аналізу підтверджено, що технічні ризики, пов’язані з архітектурним боргом, дублікацією коду та нестабільністю змін, чинять істотний вплив на структурну та експлуатаційну якість ПЗ. Організаційні ризики проявляються у вигляді поганої комунікації, неефективного лідерства та нестабільного управління.Зовнішні ризики зумовлені впливом регуляторного середовища, ринкових коливань і зовнішньої політики. Запропонований підхід дозволяє сформувати комплексне бачення структури ризиків та їхнього управління як невід’ємної складової забезпечення якості ІТ-продуктів у повному життєвому циклі.</p>Юрій КІШІгор ЛЯХ
Авторське право (c) 2025 Юрій КІШ, Ігор ЛЯХ
https://creativecommons.org/licenses/by/4.0
2025-09-232025-09-232 (17)626810.32689/maup.it.2025.2.9АРХІТЕКТУРА ІНФОРМАЦІЙНОЇ ТЕХНОЛОГІЇ ОСВІТНЬОЇ АНАЛІТИКИ З ВИКОРИСТАННЯМ ІНТЕЛЕКТУАЛЬНОГО АНАЛІЗУ ДАНИХ
https://journals.maup.com.ua/index.php/it/article/view/4907
<p>У статті розглянуто підходи до побудови архітектури інформаційної технології освітньої аналітики з інтеграцією методів інтелектуального аналізу даних. Запропоновано концептуальну модель аналітичної системи, яка дозволяє виявляти залежності між активністю студентів у навчальному середовищі та їхньою академічною успішністю, а також визначати часові патерни відвідуваності. Застосування кластерного аналізу дало змогу виокремити типові поведінкові групи студентів, що відкриває перспективи для персоналізації навчання та раннього виявлення ризиків. Результати дослідження можуть бути використані для розробки ефективних систем підтримки прийняття рішень у закладах вищої освіти.Мета роботи. Розробка концептуальної архітектури інформаційної технології освітньої аналітики, яка інтегрує методи інтелектуального аналізу даних для виявлення прихованих закономірностей у поведінці студентів, прогнозування академічної успішності та підтримки прийняття управлінських рішень у сфері вищої освіти. Особливу увагу приділено застосуванню алгоритмів машинного навчання, кластерного аналізу, регресійного моделювання та візуалізації даних у контексті побудови ефективної, масштабованої та адаптивної аналітичної системи. Методологія. Методологічну основу дослідження становить міждисциплінарний підхід, що поєднує принципи освітньої аналітики, інтелектуального аналізу даних та архітектурного проєктування інформаційних систем.Наукова новизна дослідження полягає в інтеграції модулів візуалізації, прогнозування та підтримки прийняття рішень у єдину архітектуру, орієнтовану на потреби закладів вищої освіти та практичній апробації моделі на реальних даних з LMS, що підтверджує її ефективність та адаптивність до умов сучасного освітнього середовища.Висновки. Доведено, що розробка інформаційних технологій на основі використання методів інтелектуального аналізу даних при впровадженні систем електронного навчання сприяє вирішенню задач, пов’язаних із розумінням поведінки студентів, поліпшенням якості електронних курсів, вдосконаленням методик навчання, зменшенням витрат на організацію процесу навчання та визнач ає подальші напрями освітньої аналітики відповідно до загально- світових тенденцій.</p>Євгеній КЛИМЕНКООлена ГЛАЗУНОВА
Авторське право (c) 2025 Євгеній КЛИМЕНКО, Олена ГЛАЗУНОВА
https://creativecommons.org/licenses/by/4.0
2025-09-232025-09-232 (17)697510.32689/maup.it.2025.2.10ПІДВИЩЕННЯ ЕФЕКТИВНОСТІ УПРАВЛІННЯ ХМАРНИМИ РЕСУРСАМИ ЗА ДОПОМОГОЮ РОЗПОДІЛЕНОГО МОНІТОРИНГУ
https://journals.maup.com.ua/index.php/it/article/view/4908
<p>Метою даної роботи є розробка архітектури розподіленої системи моніторингу, здатної до адаптивного реагування на змінне навантаження, часткові відмови та мережеві деградації задля підвищення ефективності управління хмарними обчислювальними ресурсами. Методологія дослідження ґрунтується на розробці ієрархічної архітектури, яка включає моніторингові агенти з адаптивною частотою вибірки, fog-рівень із локальними ML-моделями для прогнозування навантаження, а також центральний координатор, який виконує глобальну аналітику та стратегічне управління. У ході дослідження було реалізовано експериментальний прототип системи на базі контейнеризованого середовища з використанням Docker, Apache Kafka, Python, Random Forest та SHAP-інтерпретації. Було проведено серію експериментів за п’ятьма сценаріями: від номінальної роботи до стресових умов із втратами зв’язку, перевантаженнями та комбінованими загрозами.Наукова новизна – вперше реалізовано поєднання агентного моніторингу з динамічною частотою вибірки та ML-аналітики на fog-рівні для забезпечення високої швидкості й точності реагування в умовах децентралізованого управління. Запропонована модель перевершує традиційні централізовані підходи як за якісними, так і за кількісними показниками.Висновки. За результатами експериментів встановлено, що запропонована архітектура дозволяє знизити середній час реакції системи на події на 60–70 %, зменшити втрати телеметричних даних на 3–4 %, підвищити точність прогнозування навантаження до 30 % і зменшити кількість помилкових дій в умовах динамічної інфраструктури. Крім того, розподілений характер обробки інформації забезпечує вищий рівень стабільності системи за рахунок зменшення флуктуацій в алокації ресурсів. Отримані результати підтверджують доцільність впровадження запропонованої архітектури у системах, що потребують високої надійності, адаптивності та масштабованості – зокрема, в edge/fog-середовищах, індустріальному Інтернеті речей, розумних дата-центрах та критично важливих сервісах реального часу.</p>Андрій КОБИЛЮК
Авторське право (c) 2025 Андрій КОБИЛЮК
https://creativecommons.org/licenses/by/4.0
2025-09-232025-09-232 (17)768210.32689/maup.it.2025.2.11 РОЛЬ АВТОМАТИЗАЦІЇ РОЗГОРТАННЯ ІНФРАСТРУКТУРИ У ПРОСУВАННІ ЗЕЛЕНОЇ ЕНЕРГЕТИКИ: ОЦІНКА ТЕХНОЛОГІЙ ТА ПРАКТИК
https://journals.maup.com.ua/index.php/it/article/view/4909
<p>Прийняття рішень на основі машинного навчання має важливе значення для ефективної роботи хмарних віртуальних електростанцій (ВЕС), що об'єднують сотні й тисячі розподілених енергоресурсів (РЕР). Однак ручне розгортання та підтримка моделей машинного навчання в масштабі призводить до затримок, неузгодженості та високих операційних витрат. У цій статті ми проаналізували шість широко розповсюджених фреймворків автоматизації розгортанні інфраструктури машинного навчання (MLOps) – Kubeflow, Apache Airflow, MLflow, Azure ML, AWS SageMaker і Google Vertex AI – за чотирма критеріями, критично важливими для середовищ ВЕС: впровадження в галузі, повнота набору функцій, сумісність з основними фреймворками машинного навчання і хмарними платформами, а також ліцензійні або фінансові обмеження. Спираючись на публічну документацію, активність репозиторіїв, тематичні дослідження та дослідження ринку, ми визначили компроміси між гнучкістю відкритого коду та зручністю керованого сервісу. Наш аналіз показує, що Apache Airflow пропонує найбільш зрілу та розширювану оркестровку конвеєрів для локальних та мультихмарних розгортань ВЕС, в той час як Kubeflow чудово працює в контекстах на базі Kubernetes. Керовані сервіси, такі як SageMaker та Azure ML, забезпечують швидшу окупність інвестицій для команд, яким не вистачає спеціалістів у галузі інфраструктури, але несуть більші витрати та прив'язку до певного постачальника. Нарешті, ми надаємо рекомендації щодо інтеграції безперервного навчання, оцінки та моніторингу в робочі процеси прогнозування ВЕС, демонструючи, як впровадження автоматизації розгортанні інфраструктури машинного навчання може покращити затримку прогнозування та швидкість реагування мережі. Мета статті: оцінити та порівняти провідні фреймворки автоматизації розгортанні інфраструктури машинного навчання – відкриті та керовані хмарні сервіси – за ключовими критеріями (впровадження, повнота функцій, інтероперабельність та вартість) та рекомендувати найбільш підходящі рішення для віртуальних електростанцій, розміщених у хмарі.Методологія. Ми обрали шість фреймворків автоматизації розгортанні інфраструктури машинного навчання на основі впровадження, функцій, сумісності та вартості; витягли дані з офіційних документів, репозиторіїв та ринкових звітів; оцінили кожен інструмент за нашими критеріями; і сформулювали рекомендації для хмарних ВЕС для конкретних доменів.Наукова новизна. У цій статті досліджується малодосліджена сфера перетину автоматизації розгортанні інфраструктури машинного навчання і віртуальних електростанцій (ВЕС), розглядаються конкретні проблеми застосування автоматизованих робочих процесів машинного навчання до великомасштабних хмарних систем ВЕС.Це перше порівняння інструментів автоматизації розгортанні інфраструктури машинного навчання, пристосованих до операційних і прогнозних потреб ВЕС, з урахуванням специфіки конкретної галузі. Висновки. У результаті дослідження доведено, методи автоматизації розгортанні інфраструктури машинного навчання можуть значно підвищити продуктивність і масштабованість віртуальних електростанцій. У цьому дослідженні визначено найбільш підходящі інструменти для використання ВЕС, зокрема Apache Airflow та Kubeflow як сильні варіанти з відкритим вихідним кодом, тоді як керовані сервіси можуть підійти командам з обмеженим досвідом роботи з інфраструктурою.</p>Артем КОЛОМИЦЕВЮлія КУЗНЄЦОВА
Авторське право (c) 2025 Артем КОЛОМИЦЕВ, Юлія КУЗНЄЦОВА
https://creativecommons.org/licenses/by/4.0
2025-09-232025-09-232 (17)838810.32689/maup.it.2025.2.12СУЧАСНІ МЕТОДИ ЦИФРОВОГО ВОДЯНОГО МАРКУВАННЯ ЗОБРАЖЕНЬ: КЛАСИФІКАЦІЯ, АНАЛІЗ І ТЕНДЕНЦІЇ РОЗВИТКУ
https://journals.maup.com.ua/index.php/it/article/view/4910
<p>У статті представлено комплексний огляд сучасних методів цифрового водяного маркування зобра- жень, що використовуються для забезпечення авторських прав, перевірки автентичності та відстеження джерел розповсюдження цифрового контенту.Мета роботи полягає в систематизації підходів до цифрового маркування зображень, зокрема традиційних, гібридних і заснованих на глибокому навчанні, а також у виявленні їх технічних характеристик, сильних і слабких сторін, практичної ефективності та науково-технологічних викликів у контексті цифрової безпеки.Методологія дослідження базується на системному аналізі актуальних наукових джерел, включаючи рецен- зовані публікації, оглядові статті, експериментальні дослідження та прикладні реалізації алгоритмів цифрового водяного маркування. Для класифікації методів використано низку ключових технічних і функціональних критеріїв, зокрема: стійкість до атак, прозорість маркування, складність реалізації, обчислювальна ефективність, можли- вість сліпого виявлення (blind detection), адаптивність до типу зображень, а також широта сфер застосування.Порівняння методів здійснювалося з урахуванням їх здатності забезпечувати баланс між цими характеристиками, що дозволяє визначити оптимальні підходи для практичного застосування в умовах зростаючих вимог до цифрової безпеки, приватності та захисту інтелектуальної власності.Наукова новизна роботи полягає у цілісному узагальненні еволюції методів водяного маркування із фокусом на сучасні технологічні тенденції, серед яких виокремлюються: інтеграція глибокого навчання для підвищення ав- тономності алгоритмів; поєднання водяного маркування з криптографією та блокчейном; розробка адаптивних рішень, здатних масштабуватися під різні формати зображень і умови використання.Висновки. Цифрове водяне маркування залишається стратегічно важливим інструментом захисту цифрового контенту. Проаналізовані методи демонструють широкий спектр рішень із різним ступенем прозорості, стійко- сті до атак та обчислювальної ефективності. Традиційні підходи, засновані на обробці у просторі або частотній області, є добре вивченими, але мають обмежену адаптивність. Гібридні методи поєднують переваги класичних рішень, проте потребують оптимізації для протидії сучасним атакам. Методології на основі глибокого навчан- ня забезпечують новий рівень функціональності, зокрема можливість маркування без доступу до оригіналу (blind watermarking), однак стикаються з викликами, пов’язаними з високими ресурсними витратами та браком стан- дартів. У контексті цифрової трансформації суспільства актуальними стають дослідження, спрямовані на роз- робку надійних, масштабованих і нормативно врегульованих систем водяного маркування, здатних ефективно функціонувати в умовах зростаючих вимог до безпеки, приватності та інтероперабельності цифрових платформ.</p>Євген ЛАНСЬКИХОлексій НАУМОВ
Авторське право (c) 2025 Євген ЛАНСЬКИХ, Олексій НАУМОВ
https://creativecommons.org/licenses/by/4.0
2025-09-232025-09-232 (17)899510.32689/maup.it.2025.2.13РОЗРОБКА TELEGRAM-БОТА ДЛЯ АВТОМАТИЗАЦІЇ ОБЛІКУ КРИПТОТРАНЗАКЦІЙ
https://journals.maup.com.ua/index.php/it/article/view/4911
<p>Актуальність дослідження зумовлена зростанням обсягів криптовалютних операцій і потребою ефективного контролю обліку та прозорості. В умовах підвищених ризиків помилок і компрометації фінансових даних особливого значення набувають інноваційні методи автоматизації. У статті обґрунтовано ефективність Telegram-ботів у внутрішньому фінансовому контролі криптообмінників як засобу, що мінімізує ручне введення, автоматизує звітність та підвищує оперативність і безпеку операцій. Мета роботи полягає у проектуванні та розробці Telegram-бота, який забезпечує повний цикл обліку транзакцій з криптовалютами: від збору й валідації даних до формування аналітичної звітності в режимі реального часу, підвищуючи точність, швидкодію та масштабованість процесів.Методологія. Використано порівняльну оцінку ефективності чат-ботового рішення; тестові сценарії охоплювали паралельні запити, стрес-тести і вимірювання часу відповіді. також перевірено сумісність Android, iOS, Web і стійкість до несанкціонованого доступу незареєстрованих користувачів. Наукова новизна. Вперше проведено комплексне дослідження Telegram-ботів як інструменту автоматизації внутрішнього фінконтролю криптообмінів; обґрунтовано їхню здатність знижувати ризик помилок, прискорювати звітність, підвищувати безпеку й інтегруватися у наявні ІТ-системи. Запропоновано архітектурну модель з Google Sheets та SQLite.Висновки. Експериментальне впровадження підтвердило, що Telegram-бот суттєво оптимізує фінансовий контроль криптообмінників: середній час відповіді <2 с, втрати даних не зафіксовано, трудомісткість обліку скорочено удвічі. Система має резерв масштабування й може слугувати прототипом для інших фінтех-сервісів із високою транзакційною активністю.</p>Єлизавета ЛИТЮГАВалерій ЯЦЕНКО
Авторське право (c) 2025 Єлизавета ЛИТЮГА, Валерій ЯЦЕНКО
https://creativecommons.org/licenses/by/4.0
2025-09-232025-09-232 (17)9610210.32689/maup.it.2025.2.14ІННОВАЦІЙНЕ ПРОГРАМНЕ ЗАБЕЗПЕЧЕННЯ ДЛЯ ФОРМУВАННЯ МОРАЛЬНО-ЕТИЧНИХ ЦІННОСТЕЙ ПІДЛІТКІВ У ЦИФРОВУ ЕПОХУ
https://journals.maup.com.ua/index.php/it/article/view/4912
<p>У сучасному суспільстві, що перебуває під сильним впливом цифрових технологій, особливої актуальності набуває питання морального й етичного виховання підлітків. Цифрове середовище, зокрема соціальні мережі, часто стає джерелом кібербулінгу, фейкових новин, фішингу, що негативно впливає на психоемоційний стан молоді.Метою цього дослідження є розробка програмного забезпечення, що сприятиме формуванню моральних орієнтирів у підлітків віком 12–17 років, з акцентом на розвиток критичного мислення, навичок цифрової безпеки та толерантності.Методологічно дослідження ґрунтується на поєднанні теоретичного аналізу наукової літератури та емпіричних методів, статистичних даних про рівень кіберзагроз та булінгу серед молоді. Також застосовано метод проєктування програмного продукту та його експериментальне впровадження в освітньому середовищі.Наукова новизна полягає у використанні гейміфікації та адаптивного навчання у форматі мобільного застосунку, інтерфейс якого наближений до соціальних мереж. Це дозволяє підліткам легше сприймати навчальний матеріал і застосовувати його в реальному житті.Результати дослідження показали ефективність запропонованого інструменту для виховання морально стійких і соціально відповідальних молодих людей. Програмний продукт отримав позитивні відгуки з боку освітніх установ, що свідчить про доцільність його подальшого масштабування.</p>Юрій ЛУК’ЯНЧУКЛев БОЙКО
Авторське право (c) 2025 Юрій ЛУК’ЯНЧУК, Лев БОЙКО
https://creativecommons.org/licenses/by/4.0
2025-09-232025-09-232 (17)10310910.32689/maup.it.2025.2.15ЗАГРОЗА АТАКИ 51 % ДЛЯ НИЗЬКОХЕШРЕЙТОВИХ ЦИФРОВИХ ВАЛЮТ
https://journals.maup.com.ua/index.php/it/article/view/4913
<p>Атаки 51 % являють собою серйозну загрозу для безпеки блокчейнів, особливо для цифрових валют (ЦВ) з низьким хешрейтом, що робить їх уразливими до маніпуляцій і втрати довіри з боку користувачів.Мета. Дослідження загроз атаки 51 % у блокчейнах із низьким хешрейтом, зокрема для ЦВ і криптовалютних бірж (КВБ), з метою розробки ефективних стратегій протидії з використанням інтелектуальних інформаційних систем (ІІС) і теорії ігор. Методологія. Проведений у межах статті огляд і аналіз попередніх досліджень показав, що ця загроза потребує комплексного підходу до захисту. У статті обґрунтовано застосування теорії ігор як інструменту аналізу стратегій обох сторін, що може значно поліпшити розуміння динаміки взаємодії між захисниками і зловмисниками, що в перспективі дасть змогу розробити більш ефективні проактивні заходи захисту ЦВ і КВБ, включно з використанням потенціалу ІІС.Наукова новизна. ІІС можуть включати модуль оцінки стратегій сторін протистояння атакам, а також фінансових ресурсів сторін протистояння, що допоможе прогнозувати можливості реалізації атак 51 % або, навпаки, ефективно протидіяти їм. Показано, що жоден із методів захисту не є універсальним, тому комбінування різних підходів є критично необхідним для створення стійких рішень, здатних ефективно реагувати на нові загрози, як для ЦВ, так і для КВБ.Висновки. Майбутні дослідження мають зосередитися на розробці та тестуванні нових ігрових моделей для обчислювального ядра ІІС, які інтегруватимуть наявні підходи та враховуватимуть еволюцію методів атак і захисту в криптовалютних системах, що дасть змогу не лише підвищити рівень безпеки, а й забезпечити довіру користувачів до цифрових валют, що, в свою чергу, є важливим для їхнього успішного впровадження та використання у фінансових системах.</p>Ігор МАРТИНЮКАльона ДЕСЯТКО
Авторське право (c) 2025 Ігор МАРТИНЮК, Альона ДЕСЯТКО
https://creativecommons.org/licenses/by/4.0
2025-09-232025-09-232 (17)11011510.32689/maup.it.2025.2.16ІНТЕГРОВАНІ НАВІГАЦІЙНІ ТА КОМУНІКАЦІЙНІ ПРОТОКОЛИ ДЛЯ АВТОНОМНИХ ІНТЕЛЕКТУАЛЬНИХ СИСТЕМ: АРХІТЕКТУРИ, МОДЕЛІ ТА ВИКЛИКИ РЕАЛІЗАЦІЇ В ДИНАМІЧНИХ СЕРЕДОВИЩАХ
https://journals.maup.com.ua/index.php/it/article/view/4914
<p>У роботі представлено підхід до розробки автономних інтелектуальних систем (АІС), що здатні діяти самостійно в динамічних середовищах без постійного втручання оператора. Такі системи складаються з груп інтелектуальних агентів, об’єднаних у мережу зі спільною метою – виконання складних місій.Метою статті є аналіз обмежень автономного функціонування в частині комунікаційних та навігаційних можливостей елементів системи; формулювання ключових вимог до реалізації зв’язку та навігації в автономних інтелектуальних групах; а також розробка і оцінка відповідної архітектури і моделей, здатних забезпечити стабільну, ефективну та координовану діяльність системи під час виконання поставлених завдань.Методологія дослідження ґрунтується на системному аналізі функціональних властивостей автономних систем із залученням моделей інформаційної взаємодії для оцінки ефективності комунікаційних і навігаційних процесів. Було застосовано моделювання логічної архітектури та протоколів взаємодії агентів у динамічному середовищі для визначення оптимальних структур управління.Наукова новизна. Особливу увагу приділено розробці моделей навігації та зв’язку, які виступають основними функціональними компонентами забезпечення автономної мобільності. Автор розкриває функціональні вимоги до систем зв’язку та навігації, включаючи повноту, швидкодію, енергоефективність, узгодженість і стійкість. Наведено аналіз топологій зв’язку (централізовані, децентралізовані, ієрархічні, гібридні) та особливості їх впливу на ефективність взаємодії агентів.Висновки. У сфері навігації основний акцент зроблено на інтеграцію глобальних супутникових (GNSS) та інерціальних (INS) систем як основи для підвищення точності й стійкості в реальних умовах. У статті запропоновано протокол консенсусної навігації, який дозволяє усунути розбіжності між агентами шляхом обміну даними, забезпечуючи когерентність рішень. Запропоновано архітектурну модель протокольної структури автономної мобільності, яка об’єднує зв’язок і навігацію в логічні шари з високою адаптивністю до конкретних завдань. Такий підхід сприяє створенню стійких, масштабованих та універсальних автономних систем, придатних для застосування в різних галузях, від безпілотних технологій до рятувальних операцій.</p>Ігнат МИРОШНИЧЕНКО
Авторське право (c) 2025 Ігнат МИРОШНИЧЕНКО
https://creativecommons.org/licenses/by/4.0
2025-09-232025-09-232 (17)11612210.32689/maup.it.2025.2.17ВИКОРИСТАННЯ ACTIVE LEARNING ЯК ІНСТРУМЕНТУ ДЛЯ УТОЧНЕННЯ МІТОК У ЗАДАЧАХ, ЗАСНОВАНИХ НА ПРИНЦИПАХ СЛАБКОГО НАВЧАННЯ
https://journals.maup.com.ua/index.php/it/article/view/4915
<p>Було запропоновано ітеративний метод, який використовує активне навчання для виявлення та корекції помилкових міток у слабко анотованому наборі даних. Вихідним є набір даних, у якому приклади мають лише зашумлені або частково надані анотації. Запропонований підхід поступово уточнює навчальну вибірку шляхом ідентифікації зразків, які з високою ймовірністю містять помилкові помічення, та передбачає залучення цілеспрямованої перевірки, як з боку людини, так і за допомогою евристичних правил із високим рівнем довіри.Метою статті є підвищення якості міток у слабко анотованому наборі даних із мінімальними витратами на ручну анотацію. Для цього запропоновано ітеративний підхід, що базується на активному навчанні та селективній валідації з боку людини. Методологія. Розроблено ітерактивний метод, у якому дискримінативна модель (DistilBERT) навчається на поточному наборі міток, оцінює невизначеність своїх передбачень на основі варіативності виходів, а для зразків із високою невизначеністю генерує псевдомітки. Ці мітки передаються на швидке підтвердження або виправлення анотаторам. В основу слабкого анотування покладено чотири евристичні λ-функції, що формують початкові мітки, а генеративна модель враховує залежності між цими функціями через регуляризовану матрицю зв’язків.Експериментально досліджено ефективність підходу на наборі IMDb Movie Reviews, що містить 50 000 текстових відгуків, з чітким розподілом на навчальну, валідаційну й тестову вибірки.Наукова новизна. На відміну від традиційних методів активного навчання, які передбачають ручну переанотацію найневпевненіших зразків, запропоновано гібридну стратегію, що поєднує слабке навчання, псевдоанітування та вибіркову людську перевірку. Це дозволяє досягати цільової точності моделі в 2–3 рази швидше, ніж класичні підходи без слабких міток, за рахунок ефективного використання обмеженого людського ресурсу та стартової інформації з евристичних правил.Висновки. Ітеративна стратегія, яка поєднує відбір зразків на основі розбіжності передбачень, автоматичне псевдоанітування та селективну людську валідацію, дозволяє ефективно покращити якість міток у слабко анотованих даних без повної переанотації. Запропонований метод продемонстрував конкурентні результати на реальному корпусі відгуків IMDb, забезпечуючи високу точність моделі класифікації зі зниженими витратами на ручну працю.</p>Костянтин МІНКОВ
Авторське право (c) 2025 Костянтин МІНКОВ
https://creativecommons.org/licenses/by/4.0
2025-09-232025-09-232 (17)12312910.32689/maup.it.2025.2.18АНАЛІЗ ПРОБЛЕМНИХ ПИТАНЬ ВПРОВАДЖЕННЯ СУЧАСНИХ ХМАРНИХ ТЕХНОЛОГІЙ У СИСТЕМИ УПРАВЛІННЯ НАВЧАННЯМ
https://journals.maup.com.ua/index.php/it/article/view/4916
<p>Стаття присвячена огляду поточного стану розвитку СУН та використання хмарних технологій у цій сфері. Проаналізовано глобальні тенденції росту ринку СУН і впровадження хмарних сервісів, зокрема прискорення цифрової трансформації освіти під впливом пандемії та воєнних умов. Визначено основні переваги використання хмарних обчислень в освітніх платформах, а також окреслено проблемні аспекти та виклики, що виникають при впровадженні СУН.Мета. Узагальнити сучасні підходи та рішення у галузі СУН та хмарних технологій, виявити актуальні проблеми їх впровадження й експлуатації, особливо у контексті оптимального розгортання сервісів СУН в хмарному середовищі.Методологія. Застосовано методи аналізу та синтезу наукових публікацій останніх років, статистичних даних ринку освітніх технологій і досвіду впровадження СУН в Україні та світі. Виконано порівняльний аналіз можливостей традиційних та хмарних СУН-рішень, а також контент-аналіз досліджень щодо продуктивності, безпеки та архітектури цих систем.Наукова новизна. Уточнено сучасний стан розвитку СУН з урахуванням хмарних трендів, систематизовано актуальні виклики (від відсутності уніфікованих методик оцінювання ефективності СУН до питань безпеки та оптимального використання ресурсів). Вперше виокремлено проблему оптимального розгортання сервісів СУН у хмарній інфраструктурі як одну з ключових для підвищення ефективності e-learning.Висновки. Сучасні СУН активно зростають за популярністю та функціональністю, інтегруючи хмарні сервіси для масштабованості й доступності. Водночас існують недоліки, зокрема труднощі з вибором і впровадженням оптимальної платформи, забезпеченням безпеки й продуктивності при зростанні навантаження. Аналіз показав, що для вирішення цих проблем перспективним є застосування математичних моделей оптимізації. Подальше дослідження буде спрямоване на розроблення ILP-моделі оптимального розгортання сервісів СУН у хмарному середовищі як інструменту для підвищення ефективності та надійності електронних навчальних систем.</p>Артем МОІСЕЄНКОЮлія КУЗНЕЦОВА
Авторське право (c) 2025 Артем МОІСЕЄНКО, Юлія КУЗНЕЦОВА
https://creativecommons.org/licenses/by/4.0
2025-09-232025-09-232 (17)13013510.32689/maup.it.2025.2.19КОНТРАКТНО-ОРІЄНТОВАНЕ МОДЕЛЮВАННЯ МІКРОСЕРВІСНОЇ АРХІТЕКТУРИ ВИСОКОНАВАНТАЖЕНИХ СИСТЕМ У UML-ПОДІБНОМУ СЕРЕДОВИЩІ
https://journals.maup.com.ua/index.php/it/article/view/4917
<p>Метою дослідження є розроблення та обґрунтування методу контрактно-орієнтованого моделювання мікросервісної архітектури високонавантажених програмних систем у спеціалізованому UML-подібному веб-середовищі. Запропонований підхід поєднує переваги візуального проєктування та формальної специфікації інтерфейсів: JSON-фрагменти контрактів інтегруються безпосередньо у стрілки, що відображають взаємодію компонентів на діаграмах. Це забезпечує ранню, однозначну й машинно-читану фіксацію API-угод, мінімізує розрив між дизайнерською моделлю та реалізацією сервісів і знижує витрати на супровід документації.Метологія. Метод включає алгоритм автоматичного перетворення вбудованих JSON-контрактів у специфікації OpenAPI v3, які далі можуть використовуватися для генерації серверних «заглушок», клієнтських бібліотек, інтеграційних тестів або для налаштування шлюзів API. Реалізовано прототип середовища на стеку TypeScript + Node.js, що поєднує Canvas/WebGL-рендеринг діаграм із серверним модулем генерації OpenAPI. Проведено експериментальне оцінювання на трьох репрезентативних сценаріях (каталог товарів, сервіс замовлень, сервіс платежів), у яких порівнювали запропонований підхід із класичним UML-процесом, що не охоплює контракти. Результати показали скорочення середнього часу узгодження API між командами на 28 %, зменшення кількості дефектів інтеграції на 33 % та покращення індексу покриття документацією на 22 %.Наукова новизна. Особливою перевагою розробленого інструменту є підтримка «живої» документації: кожна зміна у діаграмі миттєво відбивається в оновленому контракті, що гарантує синхронність між моделлю та вихідним кодом сервісів упродовж усього життєвого циклу ПЗ. Перспективи подальших досліджень включають інтеграцію середовища з системами трасування виконання контрактів у режимі реального часу, розширення підтримки асинхронних протоколів (AsyncAPI) та розробку метрик оцінювання складності контрактних залежностей у масштабах корпоративного портфеля сервісів.Висновки. Запропонований метод контрактно-орієнтованого моделювання у UML-подібному середовищі підтвердив свою ефективність для високонавантажених мікросервісних систем. Автоматична генерація OpenAPI та підтримка «живої» документації скорочують час узгодження API, зменшують дефекти інтеграції та підвищують покриття документації. Інструмент забезпечує безперервну узгодженість між архітектурною моделлю та кодом сервісів, що підвищує якість ПЗ і спрощує його еволюцію та супровід.</p>Борис ПАНАСЮКНаталя БАБЮК
Авторське право (c) 2025 Борис ПАНАСЮК, Наталя БАБЮК
https://creativecommons.org/licenses/by/4.0
2025-09-232025-09-232 (17)13614010.32689/maup.it.2025.2.20ЗАСТОСУВАННЯ НЕЙРОМЕРЕЖ ТА ГІБРИДНИХ СХОВИЩ ПРИ СТВОРЕННІ КОМП'ЮТЕРНИХ СИСТЕМ
https://journals.maup.com.ua/index.php/it/article/view/4918
<p>У сучасних комп’ютерних системах зростає потреба у швидкій обробці, надійному зберіганні та точному аналізі великих обсягів даних у реальному часі. Це особливо актуально для автоматизованих технологічних процесів, інтелектуальних середовищ та керування розподіленими об’єктами. У таких умовах традиційні архітектури зберігання та аналітики даних стають недостатньо гнучкими та масштабованими. Метою статті є огляд сучасних підходів до побудови комп’ютерних систем прогнозування стану динамічних об’єктів шляхом поєднання методів машинного навчання з гібридною архітектурою зберігання інформації. У рамках роботи здійснюється оцінка точності різних моделей штучного інтелекту для короткострокового прогнозування параметрів, а також аналізується ефективність використання гібридних сховищ даних для забезпечення надійного, масштабованого та продуктивного функціонування таких систем у реальному часі.Методи дослідження: використовуються методи машинного навчання, зокрема регресійні та ансамблеві моделі, а також експериментальне моделювання на основі часових рядів. Для оцінки ефективності застосовано метрики точності та аналіз впливу вхідних параметрів. Обробка й зберігання даних реалізовані з використанням гібридної інфраструктури.Наукова новина дослідження полягає в тому, що проведений аналіз виявив суттєві перспективи інтеграції високоточних моделей машинного навчання з гібридними сховищами інформації для створення адаптивної комп’ютерної системи прогнозування, здатної до оперативної реакції та довготривалої аналітики в умовах обробки великих обсягів даних у реальному часі.Висновки. Проведене дослідження довело доцільність використання машинного навчання у поєднанні з гібридною архітектурою зберігання даних для створення інтелектуальних комп’ютерних систем прогнозування. На основі експериментального моделювання встановлено, що модель XGBoost демонструє найвищу точність, стабільність результатів і здатність до інтерпретації впливу вхідних параметрів на вихідні дані, значно випереджаючи інші протестовані алгоритми. Важливою складовою запропонованого підходу стала побудова гібридного сховища інформації, яке поєднує переваги локального зберігання, NoSQL-систем та хмарної інфраструктури. Така структура дозволяє забезпечити як оперативне реагування на зміни вхідних параметрів, так і проведення глибокого історичного аналізу для довготривалого планування та вдосконалення алгоритмів. Запропонована система може бути адаптована для широкого кола завдань у сфері автоматизованого керування, цифрового моніторингу, управління виробничими процесами та в інших прикладних напрямах. Вона дозволяє не лише підвищити ефективність роботи комп’ютерних систем, а й закладає основу для створення самонавчальних, адаптивних рішень нового покоління, здатних працювати в умовах реального часу з великими обсягами даних.</p>Олексій ПІСКАРЬОВДанило АБРАМОВИЧВладіслав ПЛУГІН
Авторське право (c) 2025 Олексій ПІСКАРЬОВ, Данило АБРАМОВИЧ, Владіслав ПЛУГІН
https://creativecommons.org/licenses/by/4.0
2025-09-232025-09-232 (17)14114910.32689/maup.it.2025.2.21АЛГОРИТМИ ВИЯВЛЕННЯ ТА ЗАПОБIГАННЯ МАНIПУЛЯЦIЯМ У ГЕЙМIФIКОВАНИХ ОСВIТНIХ СЕРЕДОВИЩАХ
https://journals.maup.com.ua/index.php/it/article/view/4919
<p>Гейміфікація освітніх платформ, що використовують інтеграцію балів, досягнень та рейтингів, довела свою ефективність у підвищенні мотивації та залученості учнів. Однак орієнтація на зовнішні винагороди створює нові вразливості – зокрема, явище фармингу, при якому користувачі здобувають винагороди без реального засвоєння знань. У статті представлено алгоритмічний підхід до виявлення та запобігання фармингу в гейміфікованих освітніх середовищах. Мета статті – дослідження та розробка алгоритмів виявлення та запобігання фармингу в геймiфiкованих освітніх середовищах, використовуючи методи штучного інтелекту. Завдання включають формалізацію інформаційної системи, аналіз поведінки користувачів i створення адаптивних механізмів корекції.Методологія дослідження ґрунтується на побудові графової моделі користувацької активності в гейміфікованій освітній інформаційній системі. Для виявлення аномальних патернів застосовано кластеризацію DBSCAN та локальне оцінювання відхилень за допомогою алгоритму LOF. Адаптивна поведінкова корекція реалізована через Q-learning, що дозволяє зберігати мотивацію користувачів без жорсткого втручання. Алгоритм регулярно перенавчається на основі нових даних, адаптуючись до змін у поведінці користувачів.Архітектура рішення базується на побудові графів активності, використанні алгоритму кластеризації DBSCAN, локальному виявленні аномалій (LOF), а також адаптивній корекції системи винагород за допомогою підкріплювального навчання (Q-learning). Запропонований підхід продемонстрував здатність виявляти до 95 % аномальних патернів із мінімальним рівнем хибнопозитивних спрацьовувань. Окрему увагу приділено м’якій корекції – гнучкому механізму адаптації, який дозволяє зберігати мотивацію учнів при втручанні в процес оцінювання.Наукова новизна. Новизна дослідження полягає в адаптації методів кібербезпеки до контексту освітньої аналітики, розробці алгоритмів виявлення та запобігання фармингу для геймiфiкованих освітніх платформ із застосуванням штучного інтелекту з подальшим використанням нейронних мереж (RNN, трансформерів) для прогнозування маніпуляцій та впровадження персоналізованих стратегій корекції на основі профілів користувачів.Висновки. Запропоноване рішення є ефективним кроком до створення більш прозорих, етичних і надійних гейміфікованих систем навчання. Результати дослідження можуть бути застосовані для побудови нових поколінь гейміфікованих платформ, які поєднують адаптивність, стійкість до маніпуляцій і високу якість збирання та інтерпретації освітніх даних.</p>Денис ПОКИДЬКООлена СКЛЯРЕНКО
Авторське право (c) 2025 Денис ПОКИДЬКО, Олена СКЛЯРЕНКО
https://creativecommons.org/licenses/by/4.0
2025-09-232025-09-232 (17)15015610.32689/maup.it.2025.2.22ІННОВАЦІЙНІ ПІДХОДИ ДО СТВОРЕННЯ ГІБРИДНИХ МАТЕРІАЛІВ НА ОСНОВІ БІОПОЛІМЕРІВ ДЛЯ ЗАХИСТУ ВІД ІОНІЗУЮЧОГО ВИПРОМІНЮВАННЯ
https://journals.maup.com.ua/index.php/it/article/view/4920
<p>У статті розглядається проблема створення екологічно безпечних та радіаційно стійких гібридних матеріалів на основі природних полімерів для використання в умовах дії іонізуючого випромінювання. Актуальність дослідження зумовлена недоліками традиційних екранувальних матеріалів, зокрема їхньою токсичністю, складністю утилізації та обмеженою ефективністю проти різних типів випромінювання.Метою статті є розроблення концептуальної схеми та алгоритму створення екологічно безпечних, радіаційно стійких гібридних матеріалів на основі природних полімерів для використання в радіаційних технологіях різного призначення.Методологія. Методологічну основу дослідження становить поетапний комплексний підхід, що включає: відбір природних полімерів із високим потенціалом радіаційної стійкості (зокрема лігніну); їх хімічну модифікацію для покращення міжфазної взаємодії з неорганічними компонентами; впровадження нанонаповнювачів оксидів металів із радіаційно-захисними властивостями; синтез гібридних матеріалів за контрольованих технологічних умов. Для характеристики структури, морфології, термостійкості та функціональних властивостей матеріалів запропоновано використовувати комплекс аналітичних методів: FTIR-спектроскопію, сканувальну електронну мікроскопію (SEM), рентгеноструктурний аналіз (XRD), термогравіметричний аналіз (TGA) та механічні випробування до і після дії іонізуючого випромінювання.Наукова новизна. Уперше запропоновано алгоритм створення гібридних матеріалів на основі природних полімерів з урахуванням екологічної безпечності, біосумісності та здатності до нейтралізації шкідливих побічних ефектів радіаційного впливу (вторинних електронів, радикалів).Висновок. У статті обґрунтовано доцільність створення екологічно безпечних та радіаційно стійких гібридних матеріалів на основі природних полімерів як альтернативи традиційним екранувальним засобам. Розроблено концептуальну схему й алгоритм синтезу таких матеріалів, що охоплює вибір базового біополімеру, його модифікацію, інтеграцію неорганічних нанокомпонентів і подальше тестування готового композиту. Обґрунтовано ефективність використання лігніну завдяки його радіаційній стійкості та антиоксидантним властивостям. Запропоновано підходи до введення оксидів металів для нейтралізації вторинних електронів і радикалів, що забезпечує багаторівневий захист від іонізуючого випромінювання.</p>Олександр ПОПОВВалерія КОВАЧЄвген ПИЛИПЧУКЄвгенія КОЧЕЛАБВолодимир АРТЕМЧУКТеодозія ЯЦИШИНВолодимир КУЦЕНКО
Авторське право (c) 2025 Олександр ПОПОВ, Валерія КОВАЧ, Євген ПИЛИПЧУК, Євгенія КОЧЕЛАБ, Володимир АРТЕМЧУК, Теодозія ЯЦИШИН, Володимир КУЦЕНКО
https://creativecommons.org/licenses/by/4.0
2025-09-232025-09-232 (17)15716510.32689/maup.it.2025.2.23АРХІТЕКТУРА ІНТЕЛЕКТУАЛЬНОЇ СИСТЕМИ ПІДТРИМКИ РІШЕНЬ НА ОСНОВІ СЕМАНТИЧНОГО УЗГОДЖЕННЯ МОДЕЛЕЙ
https://journals.maup.com.ua/index.php/it/article/view/4921
<p>У статті розглядається перспективний напрям розвитку систем підтримки прийняття рішень (СППР), що відповідає висхідній потребі в інтелектуальних інструментах, здатних обробляти складні, гетерогенні та динамічно мінливі дані. В умовах, коли традиційним підходам до СППР часто не вистачає гнучкості для адапта- ції до специфічних нюансів предметної області, а також вони не враховують належним чином семантику даних і наміри користувачів, це дослідження усуває критичну прогалину, надаючи нову архітектуру, що базується на семан- тичній відповідності моделей.Метою статті є опис архітектури інтелектуальної СППР, що використовує семантичні технології для забез- печення більш точної, контекстно орієнтованої та орієнтованої на користувача підтримки прийняття рішень.Методи: аналізу наукової літератури, узагальнення, систематизації.Наукова новизна статті полягає у формалізації архітектури інтелектуальної системи підтримки рішень, що ґрунтується на принципах семантичного узгодження моделей різної природи для підвищення ефективності проце- су прийняття рішень.Результати. Основна ідея полягає в інтеграції онтологій та стандартів семантичного вебу для забезпечення інтероперабельності між гетерогенними джерелами даних і автоматизації процесу зіставлення запитів користу- вачів з відповідними моделями знань. Запропонована архітектура системи складається з декількох основних ком- понентів, зокрема репозиторію семантичних моделей, механізму виведення, модуля взаємодії з користувачем та ін- терфейсів для інтеграції зовнішніх даних. Значний акцент зроблено на динамічній конфігурації моделей прийняття рішень на основі критеріїв семантичної подібності та релевантності.Висновки. Показано, що механізми семантичного узгодження значно підвищують точність рекомендацій і скорочують час, необхідний для прийняття рішень у складних середовищах. Описано практичні сценарії застосу- вання, що підтверджують адаптивність та масштабованість системи. У висновках наголошено на потенціалі семантичних технологій у створенні інтелектуальних СППР та підкреслено важливість подальших досліджень у напрямку вдосконалення алгоритмів міркувань, механізмів адаптації користувачів та розробки онтологій для кон- кретної предметної області. Запропонована практика сприяє еволюції СППР у бік більш гнучких, інтелектуальних та контекстно орієнтованих систем.</p>Олексій РИХАЛЬСЬКИЙ
Авторське право (c) 2025 Олексій РИХАЛЬСЬКИЙ
https://creativecommons.org/licenses/by/4.0
2025-09-232025-09-232 (17)16617410.32689/maup.it.2025.2.24ПОЛЕГШЕНА КРИПТОГРАФІЯ ДЛЯ БЕЗПЕКИ ПАРАМЕТРІВ ВІБРАЦІЇ В ПОСТОБРОБЦІ 3D-ДРУКОВАНИХ ДЕТАЛЕЙ
https://journals.maup.com.ua/index.php/it/article/view/4922
<p>У сучасному виробництві технології 3D-друку набувають все більшої популярності завдяки можливості швидкого створення складних та індивідуальних деталей. Однак, для досягнення високої якості та відповідності промисловим стандартам, 3D-друковані деталі потребують постобробки. Вібраційні контейнери широко використовуються для шліфування, полірування та інших методів обробки, покращуючи зовнішній вигляд і механічні властивості виробів. При цьому виникає потреба у захисті даних, які генеруються під час процесу вібрації та передаються на центральні сервери для аналізу та управління.Метою цього дослідження є розробка структури захищеної системи постобробки деталей, надрукованих методом 3D-друку, яка включає модуль шифрування на основі полегшених шифрів для забезпечення захисту параметрів вібрації та інших операційних даних.Методологія. У цій статті пропонується використання полегшеної криптографії для забезпечення безпеки параметрів вібрації в процесі постобробки деталей, надрукованих методом 3D-друку. Полегшена криптографія дозволяє ефективно шифрувати дані з мінімальними витратами ресурсів, що є критичним для систем з обмеженими обчислювальними можливостями. Розглядаються різні методи постобробки, включаючи механічне шліфування та полірування, а також їх вплив на якість поверхні та відповідність стандартам. Детально описуються криптографічні протоколи, які використовуються для захисту даних під час їх передачі від вібраційних контейнерів до центральних серверів.Результати можуть бути використані для подальшого вдосконалення технологій 3D-друку та розробки нових методів постобробки, що відповідають сучасним вимогам до якості та інформаційної безпеки.Наукова новизна. Використання шифру SPECK виявилося оптимальним рішенням для систем з обмеженими ресурсами, оскільки він забезпечує високу швидкість шифрування при низькому енергоспоживанні, що є критично важливим для мікроконтролерів та вбудованих систем, які використовуються в процесах постобробки.Висновки. Запропоновані рішення забезпечують надійний захист від несанкціонованого доступу та маніпуляцій, підвищуючи загальну безпеку та ефективність виробничих процесів. Особлива увага приділяється інтеграції криптографічних методів у системи моніторингу та контролю вібраційних процесів, що дозволяє забезпечити високу точність та надійність обробки даних.</p>Інна РОЗЛОМІЙСергій НАУМЕНКОВолодимир СИМОНЮКВіталій ПТАШЕНЧУКВіталій ЗАЖОМА
Авторське право (c) 2025 Інна РОЗЛОМІЙ, Сергій НАУМЕНКО, Володимир СИМОНЮК, Віталій ПТАШЕНЧУК, Віталій ЗАЖОМА
https://creativecommons.org/licenses/by/4.0
2025-09-232025-09-232 (17)17518210.32689/maup.it.2025.2.25ДОСЛІДЖЕННЯ ПЕРЕВАГ ТА ОБМЕЖЕНЬ АРХІТЕКТУРНОЇ МЕТОДОЛОГІЇ FEATURE-SLICED DESIGN У КОМЕРЦІЙНИХ FRONTEND- ПРОЄКТАХ
https://journals.maup.com.ua/index.php/it/article/view/4923
<p>Метою дослідження є виявлення переваг та обмежень архітектурної методології Feature-Sliced Design (FSD) у розробці комерційних frontend-застосунків, зокрема на прикладі Angular-проєктів, які вимагають високого ступеня модульності, адаптивності до змін і підтримки структурної цілісності на всіх етапах життєвого циклу програмного продукту. Особливу увагу приділено визначенню доцільності впровадження даного підходу у командах малого та середнього масштабу, що функціонують у середовищі інтенсивної розробки, з короткими релізними циклами та високими вимогами до підтримуваності коду.Методологія дослідження базується на структурному аналізі теоретичних засад FSD, практичному моделюванні архітектури програмного забезпечення на прикладі ToDo-додатку з відкритим кодом, реалізованого відповідно до всієї ієрархії рівнів – app, processes, pages, widgets, features, entities та shared. Також здійснено порівняльний аналіз із провідними альтернативними архітектурними підходами – Atomic Design, MVVM і MVC – на основі критеріїв масштабованості, когезії, рівня зв’язаності модулів, можливості повторного використання компонентів, структурної прозорості та підтримки безперервної інтеграції.Наукова новизна полягає в комплексному описі ключових переваг FSD, серед яких – інкапсуляція бізнес-функціоналу, мінімізація міжмодульних залежностей, передбачувана ієрархія структури та прозора логіка компонентної взаємодії. Вперше узагальнено обмеження, характерні для практичного застосування методології: складність початкового впровадження, фрагментарність документації, високі вимоги до архітектурної дисципліни та труднощі адаптації нових розробників у команду.Висновки. Результати дослідження підтверджують ефективність FSD як архітектурної парадигми для побудови стабільних, масштабованих і довготривало підтримуваних frontend-систем. Водночас успішне застосування підходу вимагає високої підготовленості команди, внутрішньої документації, уніфікованих підходів до структурування та чіткого дотримання прийнятих принципів. Практична значущість дослідження полягає у формулюванні рекомендацій щодо інтеграції FSD у комерційні вебзастосунки з підвищеними вимогами до архітектурної керованості, підтримуваності й масштабованості.</p>Олег СИПЯГІНДмитро ПОЛТАВСЬКИЙРоман МАРТИНЕНКО
Авторське право (c) 2025 Олег СИПЯГІН, Дмитро ПОЛТАВСЬКИЙ, Роман МАРТИНЕНКО
https://creativecommons.org/licenses/by/4.0
2025-09-232025-09-232 (17)18318710.32689/maup.it.2025.2.26ПІДВИЩЕННЯ ЕФЕКТИВНОСТІ РЕПЛІКАЦІЇ ДАНИХ У РЕЖИМІ РЕАЛЬНОГО ЧАСУ ЧЕРЕЗ ОПТИМІЗАЦІЮ МЕТОДІВ CHANGE DATA CAPTURE
https://journals.maup.com.ua/index.php/it/article/view/4924
<p>Актуальність дослідження зумовлено необхідністю підвищення ефективності реплікації даних у режимі реального часу в умовах стрімкого зростання обсягів інформації, розширення розподілених інфраструктур і динамічного навантаження на системи обробки. Традиційні механізми передачі змін дедалі частіше виявляються недостатньо гнучкими або ресурсно затратними, особливо у високонавантажених середовищах, що актуалізує завдання переосмислення методів Change Data Capture (CDC).Метою статті є наукове обґрунтування та розробка підходів до підвищення ефективності реплікації даних у режимі реального часу шляхом оптимізації методів Change Data Capture з урахуванням специфіки сучасних розподілених обчислювальних середовищ.Методологія дослідження базується на системному аналізі CDC-процедур у хмарних та гібридних інфраструктурах, моделюванні архітектурних схем реплікації, застосуванні методів порівняльного оцінювання, типологізації функціональних характеристик, а також критеріального підходу до визначення ефективності процедур у різних сценаріях оновлення даних. Результати дослідження відображаються у визначенні ключових функціональних ознак CDC-реалізацій, класифікації архітектурних моделей реплікації, обґрунтуванні релевантних критеріїв оцінки (затримка, узгодженість, масштабованість, пропускна здатність, гнучкість підключення), а також у виявленні основних технологічних обмежень у високонавантажених середовищах. Встановлено, що подієво-орієнтовані архітектури з асинхронною обробкою змін демонструють кращу продуктивність за умов правильної буферизації і контролю черг подій. У висновках обґрунтовано доцільність гібридного підходу до CDC у складних архітектурах, підтверджено залежність ефективності від поєднання архітектурної моделі та режиму обробки, а також окреслено типові технічні обмеження, що виникають у процесі впровадження CDC у традиційні СКБД і потокові сервіси.Перспективами подальших досліджень визначено розробку інтелектуальних CDC-стратегій, адаптивного керування потоками змін і розширення міжплатформної сумісності компонентів у мультихмарних середовищах.</p>Христина ТЕРЛЕЦЬКА
Авторське право (c) 2025 Христина ТЕРЛЕЦЬКА
https://creativecommons.org/licenses/by/4.0
2025-09-232025-09-232 (17)18819410.32689/maup.it.2025.2.27ОГЛЯД ТА АНАЛІЗ АСПЕКТІВ ПОВТОРЮВАНОСТІ РУТИННИХ ЗАВДАНЬ У ПРОЦЕСІ РОЗРОБЛЕННЯ МОБІЛЬНИХ ДОДАТКІВ
https://journals.maup.com.ua/index.php/it/article/view/4925
<p>Метою дослідження є системний аналіз рутинних повторюваних завдань, що виникають у процесі розроблення мобільних застосунків, а також визначення їхнього впливу на ефективність роботи розробницьких команд. Особлива увага приділяється виявленню підходів до зниження обсягу рутинних дій за рахунок автоматизації, стандартизації та повторного використання рішень. Методологія. У роботі застосовано комплексний підхід, що поєднує аналіз наукових публікацій, огляд галузевих звітів, а також систематизацію типових рутинних завдань на різних етапах життєвого циклу мобільного застосунку. Проведено порівняльний аналіз існуючих технічних рішень: інструментів автоматизованого тестування, генерації користувацького інтерфейсу, застосування практик DevOps і інтеграції віртуальних помічників.Наукова новизна. Запропоновано узагальнену класифікацію рутинних завдань мобільної розробки з урахуванням специфіки Android та iOS-платформ. Вперше комплексно проаналізовано прогалини у застосуванні сучасних інструментів автоматизації саме у мобільній сфері. Визначено, що більшість існуючих підходів не враховують особливості мобільних платформ або мають вузький технічний фокус. Висновки. Результати дослідження підтверджують актуальність необхідності уніфікації та автоматизації повторюваних завдань для підвищення ефективності мобільної розробки. Запропоновано перспективні напрями подальших досліджень, зокрема розроблення спеціалізованих інструментів, шаблонів та практик, адаптованих до викликів мобільної інженерії, що дозволить скоротити витрати часу та ресурсів, зменшити кількість помилок і прискорити вихід продукту на ринок.</p>Данило ТРОЩИЙЮлія КУЗНЕЦОВА
Авторське право (c) 2025 Данило ТРОЩИЙ, Юлія КУЗНЕЦОВА
https://creativecommons.org/licenses/by/4.0
2025-09-232025-09-232 (17)19519910.32689/maup.it.2025.2.28ОЦІНКА ЗАСТОСУВАННЯ ХМАРНИХ ТЕХНОЛОГІЙ В БУХГАЛТЕРСЬКОМУ ОБЛІКУ ЯК ІНОВАЦІЙНОГО ІНСТРУМЕНТАРІЮ
https://journals.maup.com.ua/index.php/it/article/view/4926
<p>Метою роботи є визначення основних важелів застосування хмарних технологій в бухгалтерському обліку як інноваційного інструментарію.Методологія, використана в роботі, полягає у визначені ефективних засобів автоматичного збору даних та формування податкової звітності, а також завантаження банківських виписок у потрібному форматі.Встановлено, що розробники так званих технологій цифрових активів та програмних продуктів потребують постійного навчання та певного тестування всіх процесів організації сервісу. Наукова новизна роботи полягає у визначенні інформаційної обізнаності та ефективного управління фінансами як ключових факторів підвищення рівня фінансової стабільності та незалежності в умовах розвитку хмарного середовища. Обґрунтовано критерії, від яких залежить організація системи бухгалтерського обліку в хмарному середовищі.Висновки. Доведено, що фінансова свідомість та ефективне управління фінансами є ключовими факторами для досягнення фінансової стабільності та незалежності, а отже за допомогою хмарних технологій, доступних нам сьогодні, створення інноваційних інструментів, що сприяють ефективному керуванню фінансами, є необхідним інструментом ефективного функціонування підприємства. Досліджено наслідки застосування хмарних технологій, з урахуванням актуальності питання захисту даних, ефективності роботи компанії, її оперативності та мобільності. Обгрунтовано вимоги до підготовки та підвищення кваліфікації фахівців галузі. Проаналізовано особливості вітчизняного, європейського та світового ринку, зокрема законодавчі вимоги та стандарти бухгалтерського обліку. Встановлено актуальні аспекти створення та впровадження криптовалюти як одного з цифрових активів, які займають певне місце у становленні сучасного обліку та аудиту, яку розглядають як один із можливих видів цифрової валюти, яка покликана виконувати функції забезпечення оптимальності та ефективності. Запропоновано вдосконалення компонентів функціональності програмних продуктів для спрощення бухгалтерського обліку. Обгрунтовано запропонований функціонал програмних продуктів, особливості роботи з різними типами організацій, компаній, підприємств, їх взаємодія, інтеграція з фінансовими установами, для ефективної оптимізації обміну даними між компаніями, фахівцями.</p>Тамара ФРАНЧУКДмитро ТИЩЕНКОАльона ДЕСЯТКОДмитро ГНАТЧЕНКО
Авторське право (c) 2025 Тамара ФРАНЧУК, Дмитро ТИЩЕНКО, Альона ДЕСЯТКО, Дмитро ГНАТЧЕНКО
https://creativecommons.org/licenses/by/4.0
2025-09-232025-09-232 (17)20020510.32689/maup.it.2025.2.29АЛГОРИТМИ ОПТИМАЛЬНОЇ МАРШРУТИЗАЦІЇ ДЛЯ СЛУЖБ ЕКСТРЕНИХ РЕАГУВАНЬ
https://journals.maup.com.ua/index.php/it/article/view/4927
<p>Метою дослідження є питання підвищення ефективності реагування служб надзвичайних ситуацій шляхом оптимізації алгоритмів маршрутизації та розробка математичної моделі маршрутизації та алгоритмів, які забезпечують найкоротші шляхи з урахуванням змін дорожньої ситуації в реальному часі. Методологія. У дослідженні використано методи теорії графів, евристичні та адаптивні алгоритми, а також симуляційне моделювання для порівняння ефективності різних підходів. Наукова новизна. Уперше запропоновано комплексний підхід до побудови маршруту з урахуванням динамічної зміни дорожньої обстановки в реальному часі, що базується на адаптивному алгоритмі з механізмом перепланування. На відміну від класичних методів, розроблений алгоритм дозволяє своєчасно коригувати маршрут у разі виявлення заторів, аварій чи перекриттів, забезпечуючи стійкість рішень та мінімізацію часу прибуття. Крім того, дослідження передбачає масштабованість алгоритмів для різних типів населених пунктів – від мегаполісів до сільської місцевості – з урахуванням особливостей дорожньої інфраструктури. Важливою складовою новизни є інтеграція моделі в реальні системи підтримки прийняття рішень, що дає змогу не лише моделювати, але й практично застосовувати результати.Висновки. Запропонований адаптивний підхід до маршрутизації дозволяє суттєво зменшити середній час реагування служб надзвичайних ситуацій, що підтверджено результатами симуляційного моделювання. Розроблені алгоритми забезпечують гнучке врахування динамічної дорожньої обстановки в режимі реального часу та можуть бути інтегровані у сучасні диспетчерські системи. Масштабованість і технологічна сумісність рішення робить його перспективним для впровадження у різних адміністративно-територіальних умовах України.</p>Олексій ХОНІНОлена СКЛЯРЕНКО
Авторське право (c) 2025 Олексій ХОНІН, Олена СКЛЯРЕНКО
https://creativecommons.org/licenses/by/4.0
2025-09-232025-09-232 (17)20621010.32689/maup.it.2025.2.30ТРАНСФОРМАЦІЯ МІЖНАРОДНИХ СТАНДАРТІВ КІБЕРБЕЗПЕКИ ЯК ВІДПОВІДЬ НА ТЕХНОЛОГІЧНІ ТА ГЕОПОЛІТИЧНІ ВИКЛИКИ
https://journals.maup.com.ua/index.php/it/article/view/4928
<p>Стаття спрямована на аналіз можливості та доцільності змін в міжнародних стандартах кібербезпеки (ISO/IEC 27001, NIST Cybersecurity Framework, GDPR) з огляду на технологічні (ШІ, IoT, 5G) та геополітичні чинники.Мета роботи. полягає у визначенні ключових напрямів еволюції стандартів, оцінки рівня їхньої адаптації до сучасних загроз і формування пропозицій щодо підвищення глобальної кіберстійкості через міжсекторальну співпрацю. Методологія. В дослідженні використано системний підхід до оцінки технологічних, геополітичних і регуляторних факторів, що впливають на стандарти кібербезпеки. Проведено порівняльний аналіз стандартів ISO/ IEC 27001:2022, NIST CSF 2.0, GDPR, NIS2, який дозволив виявити їхні обмеження в контексті змін зовнішнього середовища. Наукова новизна полягає, насамперед, у фокусуванні дослідження на міжсекторальній співпраці як ключового механізму реалізації стандартів, що раніше висвітлювалося недостатньо. В цьому контексті проаналізовано ініціативи міжсекторальної співпраці, такі як Cybersecurity Tech Accord і ENISA MeliCERTes, для оцінки їхньої ролі в можливій трансформації наявних стандартів. Визначено, що останні оновлення ISO/IEC 27001:2022 і NIST CSF 2.0 враховують ризики від ШІ, IoT і ланцюгів постачання, тоді як GDPR і NIS2 посилюють захист даних і реагування на інциденти. Проте політичні розбіжності, зокрема між західними та китайськими стандартами (GB/T), ускладнюють глобальну гармонізацію. Паралельно із цим визначено, що людський фактор, що спричиняє 68% витоків даних, вимагає посилення кіберграмотності.Висновки. За підсумками дослідження зроблено висновок, що у майбутньому глобальна кіберстійкість залежатиме від гнучкості стандартів та ефективної координації між державами, приватним сектором і міжнародними організаціями за умови належних інвестицій у освіту й технології.</p>Максим ЧЕРЕМНОВ
Авторське право (c) 2025 Максим ЧЕРЕМНОВ
https://creativecommons.org/licenses/by/4.0
2025-09-232025-09-232 (17)21121510.32689/maup.it.2025.2.31ІНТЕГРАЦІЯ ВЕЛИКИХ МОВНИХ МОДЕЛЕЙ У СИСТЕМИ ОБРОБКИ КЛІЄНТСЬКИХ ЗАПИТІВ НА ОСНОВІ ЧАТ-БОТІВ
https://journals.maup.com.ua/index.php/it/article/view/4929
<p>Мета роботи. Запропонувати гібридну модель автоматизованого текстового обслуговування клієнтів, що поєднує семантичну класифікацію з генеративними можливостями LLM для підвищення точності, релевантності та природності відповідей.Методологія. Розроблено систему, що залежно від класифікації інтенції та емоційного тону запиту вибирає один із трьох механізмів відповіді: шаблонні правила, пошукове зіставлення або генерацію LLM. Експериментальна перевірка виконана на корпусі 7 500 запитів (автентичних і синтетичних); оцінка проведена за BLEU, ROUGE-L та експертними критеріями зрозумілості, природності й довіри користувачів.Наукова новизна. Вперше показано, що семантична маршрутизація у зв’язці з LLM формує більш стійку й адаптивну систему, здатну коректно обробляти складні або емоційно тоновані звернення. Запропонована модель перевищила базові підходи за точністю (92,1 %), BLEU 0,78, ROUGE-L 0,81 та найменшою частотою збоїв, а також отримала найвищі експертні оцінки.Висновки. Гібридна модель зменшує навантаження операторів, підвищує задоволеність користувачів і легко адаптується до динаміки поведінки клієнтів, пропонуючи одночасно емпатичні та дієві відповіді. Практичну цінність підтверджено на прикладах з електронної комерції, банківської сфери, охорони здоров’я та публічних сервісів. Виклики впровадження охоплюють інтеграцію з легасі-системами, регулярне оновлення баз знань і модерацію згенерованого контенту. Подальші дослідження спрямовано на персоналізацію, мультимодальну взаємодію, активне навчання та оптимізацію обчислювальних ресурсів, що закладає основу для розвитку передових чат-ботів у сферах з критичною потребою у високоякісній автоматизованій підтримці.</p>Софія ШВЕЦЬ
Авторське право (c) 2025 Софія ШВЕЦЬ
https://creativecommons.org/licenses/by/4.0
2025-09-232025-09-232 (17)21622410.32689/maup.it.2025.2.32