12 research outputs found

    Encryption Method for Systems with Limited Computing Resources

    Get PDF
    Due to the active development of the Internet of Things ( IoT 1 , ) technology, more and more systems of interconnected devices and sensors are appearing that collect various data an d transmit them through gateways to remote servers. It goes without saying that this data must be protected at all stages. This is especially important for data on the functioning of potentially dangerous objects and devices. Because of the features of dev ices with limited computing resources, it is impossible to use standard methods of information protection in the gateway built-- in sensor link. The article considers the algorithm of the Internet of Things system using limited devices, which consists of a g ateway for receiving data from sensors and transmitting them to servers and limited devices used for data collection and encryption. The proposed algorithm describes the process of data packet generation, key generation, encryption, transmission, and decry ption of data received from sensors. The reliability of data encryption transmitted in the gatewaybuilt sequence -- in sensor link is ensured by the generation of a truly random the encryption key, based on the initial measured value on the unconnected and ungrounded analog input of the microcontroller, and a series of arithmetic operations

    ОЦІНКА ПЕРЕДУМОВ ФОРМУВАННЯ МЕТОДИКИ ОЦІНКИ ДОСТОВІРНОСТІ ІНФОРМАЦІЇ

    Get PDF
    The conceptual model of information reliability includes information resources, sources of information, factors of information confrontation, sources of factors of information confrontation (threats to authenticity), goals of attackers, functions, methods and means of ensuring reliability, and reliability indicators. The reliability of information (the degree of trust in data) contained in information resources is largely determined by the quality of sources and the ability of individuals to influence information processes. However, the concept of reliability of information is often associated with the categories of integrity and availability of information resources. All this must be ensured in the functioning of the information space in conditions of accidental or intentional informational influences. A necessary condition for achieving the required level of reliability of information is the construction of a comprehensive system for ensuring the reliability of the information. Information space of enterprises exists in the system of commodity-money relations, which is based on the concept of economic efficiency and can not afford to spend uncontrollably and unreasonably material resources for any activities. As a result, the assessment of the level of reliability of information and decision-making on measures to improve it raise the concomitant task of assessing the economic effect of their implementation.Концептуальна модель достовірності інформації включає: інформаційні ресурси, джерела інформації, фактори інформаційного протиборства, джерела факторів інформаційного протиборства (загроз достовірності), цілі зловмисників, функції, методи та засоби забезпечення достовірності, показники достовірності. Достовірність інформації (ступінь довіри до даних), яка міститься в інформаційних ресурсах багато в чому визначається якістю джерел та можливістю індивідів впливати на інформаційні процеси. При цьому поняття достовірності інформації часто пов’язується з категоріями цілісності та доступності інформаційних ресурсів. Все це повинно бути забезпечено при функціонуванні інформаційного простору в умовах випадкових чи навмисних інформаційних впливів. Необхідною умовою досягнення необхідного рівня достовірності інформації є побудова комплексної системи забезпечення достовірності інформації. Інформаційних простір підприємств існують в системі товарно-грошових відносин, в основі якої лежить поняття економічної ефективності, і не можуть собі дозволити безконтрольно і безпідставно витрачати матеріальні ресурси на проведення будь-яких заходів. Внаслідок цього оцінка рівня достовірності інформації і прийняття рішень щодо проведення заходів для його підвищення піднімають супутню завдання оцінки економічного ефекту від їх проведення

    ПРАВИЛА РЕАЛІЗАЦІЇ ЕКСПЛОЙТІВ ПІД ЧАС АКТИВНОГО АНАЛІЗУ ЗАХИЩЕНОСТІ КОРПОРАТИВНИХ МЕРЕЖ НА ОСНОВІ НЕЧІТКОЇ ОЦІНКИ ЯКОСТІ МЕХАНІЗМУ ВАЛІДАЦІЇ ВРАЗЛИВОСТЕЙ

    Get PDF
    The dynamics of the increase in the number of vulnerabilities of software and hardware platforms of corporate networks, the accessibility of exploit modules for these vulnerabilities in the Internet and the Darknet, along with the lack of a sufficient number of highly qualified cybersecurity specialists make the problem of effective automation of preventive information protection mechanisms quite urgent. In particular, the basic algorithms for the sequential implementation of exploits embedded in the vulnerability exploitation tools are quite primitive, and the proposed approaches to their improvement require constant adaptation of mathematical models of the implementation of attacking actions. This justifies the direction of this research. This paper considers the issue of forming decision-making rules for the implementation of vulnerabilities’ exploits during an active analysis of the corporate networks’ security. Based on the results of the analysis of quantitative indicators of the quality of the validation mechanism of the identified vulnerabilities and the use of fuzzy logic methods, a fuzzy system was formed, membership functions for each of the linguistic variables were determined and a knowledge base was built, which makes it possible to determine the quality level of the validation mechanism of the identified vulnerabilities based on all available information. At the same time, in order to eliminate the “human factor” of making mistakes when validating vulnerabilities, based on the built fuzzy knowledge base and the established levels of exploit modules’ efficiency, the rules for the implementation of individual exploit modules during an active analysis of the corporate network’s security were formed. Results of research make it possible to create expert systems for diagnosing the effectiveness of the validation mechanism of the identified vulnerabilities of target systems, and also help to solve the problem of the lack of qualified specialists in the analysis and maintenance of an appropriate level of information security of corporate networks.Динаміка зростання кількості вразливостей програмних та апаратних платформ корпоративних мереж, загальнодоступність модулів експлойтів даних вразливостей в мережах Інтернет та Даркнет, наряду з відсутністю достатньої кількості висококваліфікованих фахівців з кібербезпеки, робить проблему ефективної автоматизації превентивних механізмів захисту інформації досить актуальною. Зокрема, базові алгоритми послідовної реалізації експлойтів закладені в засоби експлуатації вразливостей є досить примітивними, а запропоновані підходи щодо їх покращення, потребують постійної адаптації математичних моделей реалізації атакуючих дій. Цим і обґрунтовується напрям даного дослідження. В роботі розглядається проблематика формування правил прийняття рішень щодо реалізації експлойтів вразливостей під час проведення активного аналізу захищеності корпоративних мереж. На основі результатів аналізу кількісних показників якості роботи механізму валідації виявлених вразливостей та використанні методів нечіткої логіки було сформовано нечітку систему, визначено функції належності для кожної з лінгвістичних змінних та побудовано базу знань, що дозволяє визначити рівень якості роботи механізму валідації виявлених вразливостей на основі всієї наявної інформації. Водночас, задля виключення «людського фактору» допущення помилки при валідації вразливостей, ґрунтуючись на сформованій нечіткій базі знань та визначених рівнях ефективності модулів експлойтів вразливостей, сформовано правила реалізації окремих модулів експлойтів під час проведення активного аналізу захищеності корпоративної мережі. Отримані результати надають можливість створювати експертні системи діагностування ефективності механізму валідації виявлених вразливостей цільових систем, а також допомагають вирішити питання відсутності кваліфікованих спеціалістів з аналізу та підтримки належного рівня інформаційної безпеки корпоративних мереж

    ІНФОРМАЦІЙНІ ВІЙНИ: ПРОБЛЕМИ, ЗАГРОЗИ ТА ПРОТИДІЯ

    Get PDF
    У статті розглянуто проблеми вразливості Української держави в умовах інформаційної війни. Описано основні загрози, серед них: руйнування єдиного інформаційного простору держави; маніпуляція суспільною, недостатня координація діяльності органів державної влади, слабкість системи освіти та виховання, протиправне застосування спеціальних засобів впливу на суспільну свідомість, загострення міжнародної конкуренції за володіння інформаційними технологіями та ресурсами; діяльність міжнародних терористичних організацій; недостатність нормативної правової бази, що регулює відносини в інформаційній сфері, а також недостатня практика застосування права. В інформаційній війні виділяються три основних мети: контроль інформаційного простору і забезпечення захисту своєї інформації від ворожих дій; використання контролю над інформаційним простором для проведення інформаційних атак на противника; підвищення загальної ефективності збройних інформаційних функцій. Розглянуто складові інформаційних воєн та описано пріоритетні напрями державної інформаційної політики та важливі кроки з боку владних органів України. Формування суспільної свідомості за допомогою суб’єктів інформаційної війни з використанням методів психологічного впливу стає найбільш ефективним способом контролю і маніпуляції як всередині держави, так і за її межами. Все залежить від того, хто фактично визначає інформаційний контент. Таким чином, наше ставлення до проблем і явищ, навіть сам підхід до того, що вважати проблемою або явищем, багато в чому визначені тими, хто контролює світ комунікацій

    Analysis of the Process of Information Transfer from the Source-to-User in Terms of Information Impact

    Get PDF
    The process of transferring information from an official source or from the “scene” to the final consumer is quite complex and lengthy. During its promotion, information circulates in the information space and is influenced by various groups of influence that pursue their interests. Thus, very often the end-user receives biased, biased information, the purpose of which is to exert a certain influence on his behavior. The situation is complicated by the limited sources of information, their subjectivity, and bias, which are the essence of information conflict when the opposing parties try to put any information pressure on the sources of information and the whole process of its dissemination. To ensure the proper functioning, making adequate decisions, the task of the end-user is to obtain objective and timely information, for which the issues of assessing its reliability come to the fore

    Smart Home Network based on Cisco Equipment

    Get PDF
    This paper develops and implements a smart home concept using sensors and actuators that are connected to a gateway via Wi-Fi communication protocol. The 3G/4G client can control the home remotely using an account on the IoT server. The project is simulated using the Cisco Packet Tracer simulation tool. Networking and programming is a powerful foundation for this research as it provides the interface between sensors actuators and devices to be controlled. The proposed system can be applied in many areas, including home security, lighting control, flame detection, intelligent heating, motion sensor, door control, etc., to provide homeowner comfort, safety, energy efficiency (low operating costs), and convenience at any time

    Ensuring Data Security in the Peer-to-Peer Economic System of the DAO

    Get PDF
    The article raises the problem of using in DAO, has a high level of interaction with participants and participants, makes decisions, including using it with the help of autonomous economic agents. The article also provides a general description of the risks and issues that need to be addressed for the trusted use of peer-to-peer data in a DAO. In addition to this presented DAO decision making model, which can be used for investment, commercial and administrative models for DAO

    Person-of-Interest Detection on Mobile Forensics Data—AI-Driven Roadmap

    Get PDF
    The research problem addressed in the paper centers around the difficulty of identifying Persons of Interest (POIs) in law enforcement activity due to the vast amount of data stored on mobile devices. Given the complexity and volume of mobile forensic data, traditional analysis methods are often insufficient. The paper proposes leveraging Artificial Intelligence (AI) techniques, including machine learning and natural language processing, to improve the efficiency and effectiveness of data analysis in mobile forensics. This approach aims to overcome the limitations of manual data examination and enhance the identification process of POIs in a forensically sound manner. The main objective of the study is to explore and demonstrate the effectiveness of Artificial Intelligence techniques in improving the identification of POIs from mobile forensic data. The study proposes AI-driven approaches, particularly machine learning, and natural language processing, which can significantly enhance the efficiency, accuracy, and depth of analysis in mobile forensics, thereby addressing the challenges of handling vast amounts of data and the complexity of modern digital evidence. The study employs a quantitative research design, utilizing AI algorithms to process mobile forensic data from simulated environments. The study particularly demonstrates how deep learning can be utilized for searching POIs in WhatsApp messenger data. The result of the experiment shows that using AI for face recognition may throw false positive results, which means humans can’t be replaced in the stage of AI evolution. Also, results emphasize that using AI is helpful in mobile forensics data analysis and followed 88% of successful face recognition. The findings underscore the transformative potential of AI in mobile forensics, highlighting its capacity to enhance investigative accuracy and efficiency. This advancement could lead to more effective law enforcement and judicial processes by enabling quicker identification of POIs with higher precision. Moreover, the research underscores the importance of addressing ethical and privacy concerns in the application of AI technologies in forensic investigations, suggesting a balanced approach to leverage AI benefits while safeguarding individual rights

    МОДЕЛЮВАННЯ МЕХАНІЗМУ ВАЛІДАЦІЇ ВРАЗЛИВОСТЕЙ ПРИ АКТИВНОМУ АНАЛІЗІ ЗАХИЩЕНОСТІ КОРПОРАТИВНИХ МЕРЕЖ ЗА ДОПОМОГОЮ ПОЛІНОМІВ БЕРНШТЕЙНА

    No full text
    The subject of the article is the models of the process of active analysis of the security of information systems and networks, in particular, one of its key components, namely the vulnerability validation mechanism. The purpose of the article is to develop a mathematical model for analysing the number of successful and negative validations over a rational cycle of validation of identified vulnerabilities during an automated active analysis of the security of the corporate network. Results: Based on the observations and studies of the exploitation tools of the identified vulnerabilities, it was decided to describe the dynamic of the validation processes using Bernstein polynomials, which successfully approximate the analytical dependencies for the quantitative characteristics of the vulnerability validation process. Also based on a comparison of the empirical and calculated values of these characteristics, it was established that deviations are permissible. Conclusions: The developed mathematical model provides with analytical dependencies for the number of successfully validated, invalidated vulnerabilities and the number of vulnerability validation cases that led to critical errors over the rational cycle of validation of identified vulnerabilities.Предметом изучения статьи есть модели процесса активного анализа защищенности информационных систем и сетей, в частности одного из его ключевых компонентов, а именно механизма валидации уязвимостей. Целью исследования является разработка математической модели анализа количества успешной и негативной валидаций за время рационального цикла валидации выявленных уязвимостей во время автоматизированного активного анализа защищенности корпоративной сети. Результаты: на основе проведенных в работе наблюдений и исследований функционирования средств эксплуатации выявленных уязвимостей было принято решение об описания динамики процессов валидации именно с помощью полиномов Бернштейна, которые успешно аппроксимируют аналитические зависимости для количественных характеристик процесса валидации уязвимостей. При этом, на основе сравнения эмпирических и расчетных значений данных характеристик установлено, что отклонения допустимы. Выводы: разработана математическая модель обеспечивает получение аналитических зависимостей для количества успешно валидированных, невалидованих уязвимостей и количества случаев валидации уязвимостей, которые привели к критическим ошибкам за время рационального цикла валидации выявленных уязвимостей.Предметом вивчення у статті є модель процесу активного аналізу захищеності інформаційних систем та мереж, зокрема одного з її ключових компонентів, а саме механізму валідації вразливостей. Метою дослідження є розробка математичної моделі аналізу кількості успішної та негативної валідацій за час раціонального циклу валідації виявлених вразливостей під час автоматизованого активного аналізу захищеності корпоративної мережі. Результати: на основі проведених в роботі спостережень та досліджень функціонування засобів експлуатації виявлених вразливостей було прийнято рішення щодо опису динаміки процесів валідації саме за допомогою поліномів Бернштейна, які успішно апроксимують аналітичні залежності для кількісних характеристик процесу валідації вразливостей. При цьому, на основі порівняння емпіричних та розрахункових значень даних характеристик встановлено, що відхилення є допустимими. Висновки: розроблена математична модель забезпечує отримання аналітичних залежностей для кількості успішно валідованих, невалідованих вразливостей та кількості випадків валідації вразливостей, що призвели до критичних помилок за час раціонального циклу валідації виявлених вразливостей

    Розробка методу перевірки вразливостей корпоративної мережі за допомогою перетворень Бернштейна

    No full text
    One of the leading areas of cybersecurity of communication networks is considered – the introduction of preventive mechanisms, among which the most promising are the methods of active security analysis. These methods allow, in addition to timely detection of vulnerabilities of the target system (analyzed system), to confirm the possibility of their implementation, that is, to validate vulnerabilities by simulating the real actions of a potential attacker. The urgent need to validate vulnerabilities out of the many identified is caused by the fact that some of them can only be theoretical, while others are exploited using malicious scripts (exploits). At the same time, the process of validating vulnerabilities is practically not studied. That is why the work carried out an experimental study of the functioning of modern tools for exploiting vulnerabilities. Based on the observations, general quantitative characteristics of the vulnerability validation process were identified. A mathematical model for the analysis of the above characteristics based on Bernstein polynomials has been developed. It is the polynomial representation of the procedure for confirming the possibility of implementing the identified vulnerabilities that makes it possible to describe the dynamics of this process, taking into account the complex and volatile nature of the environment. Analytical dependencies are obtained for the number of cases of successful and negative confirmation of vulnerabilities. In particular, negative validation cases include simply failed attempts to validate vulnerabilities, as well as attempts that resulted in critical errors on the target system during the rational cycle of validating the identified vulnerabilities. The proposed dependencies make it possible to construct the probability distribution laws for the above characteristics of the vulnerability testing process.Рассмотрено одно из ведущих направлений кибербезопасности коммуникационных сетей – внедрение превентивных механизмов, среди которых наиболее перспективны являются методы активного анализа безопасности. Эти методы позволяют кроме своевременного выявления уязвимостей целевой системы (анализируемой системы), подтверждать возможность их реализации, то есть валидировать уязвимости путем имитирования реальных действий потенциального злоумышленника. Острая необходимость в валидации уязвимостей из множества выявленных вызвана тем фактом, что некоторые из них могут быть только теоретическими, другие эксплуатируются с использованием вредоносных скриптов (эксплойтов). В то же время, процесс валидации уязвимостей практически не исследован. Именно поэтому в работе проведено экспериментальное исследование функционирования современного инструментария эксплуатации уязвимостей. На основе наблюдений были выделены общие количественные характеристики процесса валидации уязвимостей. Разработана математическая модель анализа вышеупомянутых характеристик на основе полиномов Бернштейна. Именно полиномиальное представление процедуры подтверждения возможности реализации выявленных уязвимостей позволяет описать динамику данного процесса, учитывая сложную и изменчивую природу среды. Получены аналитические зависимости для количества случаев успешного и отрицательного подтверждения уязвимостей. В частности, к отрицательным случаям подтверждения относятся просто неудачные попытки валидации уязвимостей, а также попытки, повлекшие критические ошибки на целевой системе во время рационального цикла валидации выявленных уязвимостей. Предлагаемые зависимости позволяют построить законы распределения вероятностей указанных выше характеристик процесса проверки уязвимостейРозглянуто один із провідних напрямків кібербезпеки комунікаційних мереж – впровадження превентивних механізмів, серед яких найбільш перспективними є методи активного аналізу безпеки. Ці методи дозволяють окрім своєчасного виявлення вразливостей цільової системи (системи, що аналізується), підтверджувати можливість їх реалізації, тобто валідувати вразливості шляхом імітування реальних дій потенційного зловмисника. Гостра необхідність у валідації вразливостей із множини виявлених викликана тим фактом, що деякі з них можуть бути лише теоретичними, інші – експлуатуються з використанням шкідливих скриптів (експлойтів). Водночас, процес валідації вразливостей є практично недослідженим. Саме тому, в роботі проведено експериментальне дослідження функціонування сучасного інструментарію експлуатації вразливостей. На основі спостережень було виділено загальні кількісні характеристики процесу валідації вразливостей. Розроблено математичну модель аналізу вищезазначених характеристик на основі поліномів Бернштейна. Саме поліноміальне представлення процедури підтвердження можливості реалізації виявлених вразливостей дозволяє описати динаміку даного процесу враховуючи складну та мінливу природу середовища. Отримано аналітичні залежності для кількості випадків успішного і негативного підтвердження вразливостей. Зокрема до негативних випадків підтвердження відносяться просто невдалі спроби валідації вразливостей, а також спроби, що призвели до критичних помилок на цільовій системі під час раціонального циклу валідації виявлених вразливостей. Запропоновані залежності дозволяють побудувати закони розподілу ймовірностей зазначених вище характеристик процесу перевірки вразливосте
    corecore