Threat Identification using STRIDE and GPT based chatbots

Autor

Słowa kluczowe:

Threat Modeling, Cybersecurity, Artificial Intelligence, Large Language Model

Abstrakt

W niniejszej pracy przedstawiono skuteczność wykorzystania dużych modeli językowych (LLM) takich jak ChatGPT, w celu identyfikacji potencjalnych zagrożeń i zaproponowania skutecznych środków obronnych w celu ochrony krytycznych usług sieciowych. Nowoczesne systemy informatyczne składają się z wielu modułów różnego typu, co utrudnia ręczne zarządzanie procesem identyfikowania zagrożeń. Do pomocy w identyfikowaniu zagrożeń można wykorzystać sztuczną inteligencję. Artykuł przestawia analizę porównawczą trzech różnych narzędzi opartych o model GPT (ChatGPT 4.0, STRIDE-GPT i niestandardowy model oparty na gpt-4-1106-preview). Przy użyciu tych narzędzi oraz danych pochodzących z raportów NMAP, przeprowadzona została testowa identyfikacja zagrożeń. Wyniki wskazują na możliwość wykorzystania Chatbotów do pomocy w wykrywaniu zagrożeń. Co więcej, wskazują, że zagrożenia rozpoznawane przez sztuczną inteligencję są porównywalne z zagrożeniami identyfikowanymi przez ekspertów, przy czym identyfikacja ta następuje zdecydowanie szybciej w przypadku wykorzystania sztucznej inteligencji.

Bibliografia

Adams M., STRIDE-GPT, <https://stridegpt.streamlit.app/>, accessed: 31/07/2024

Bahrini A., et al., ChatGPT: Applications, Opportunities, and Threats, “2023 Systems and Information Engineering Design Symposium (SIEDS)”, Charlottesville, VA, USA, 2023, pp. 274-279.

Borji, A., A Categorical Archive of ChatGPT Failures, 10.21203/rs.3.rs-2895792/v1, 2023.

Ferrag M. et al., Revolutionizing Cyber Threat Detection with Large Language Models, 10.48550/arXiv.2306.14263, 2023.

Ferrag, M., Ndhlovu M., Al-Hawawreh M., Generative AI for Cyber Threat-Hunting in 6G-enabled IoT Networks, “IEEE/ACM CCGrid 2023 Conference Proceedings”, 2023.

Kumar H., et al., Exploring The Design of Prompts For Applying GPT-3 based Chatbots: A Mental Wellbeing Case Study on Mechanical Turk, 10.48550/arXiv.2209.11344, 2022.

OpenAI. Code and guides for accomplishing common tasks with the OpenAI API. <https://github.com/openai/openai-cookbook/tree/main> (accessed: 28/12/2023)

Siddique A., Threat Modeling Methodologies for Network Security, 10.13140/RG.2.2.19672.42249, 2021.

Yeng P., Wolthusen S., Yang, Comparative Analysis of Threat Modeling Methods for Cloud computing Towards Healthcare Security Practice: A State-of-the-art study. “International Journal of Advanced Computer Science and Applications”, 2020.

Pobrania

Opublikowane

2025-06-04