FraudGPT là một bot AI được thiết kế đặc biệt cho các mục đích tấn công, chẳng hạn như tạo email lừa đảo, tạo công cụ cracking, carding và nhiều hơn nữa. Theo công ty an ninh mạng Netenrich, FraudGPT đã được lưu hành từ ít nhất ngày 22/7/2023, với giá đăng ký là 200 USD một tháng, 1.000 USD cho sáu tháng và 1.700 USD cho một năm.
CanadianKingpin cùng lời mời gọi trên trang cá nhân
Tác giả của FraudGPT, người sử dụng biệt danh trực tuyến là CanadianKingpin, khẳng định rằng công cụ này có thể được sử dụng để viết mã độc, tạo phần mềm độc hại và không thể phát hiện trong tìm kiếm rò rỉ và lỗ hổng. CanadianKingpin cũng khẳng định rằng đã có hơn 3.000 giao dịch và đánh giá được xác nhận. Trong khi chưa rõ ràng rằng mô hình ngôn ngữ lớn (LLM) nào đã được sử dụng để phát triển hệ thống này, thì FraudGPT là một bước đột phá đáng kể trong việc sử dụng các công cụ AI cho tội phạm mạng. Sự xuất hiện của FraudGPT đưa ra nhiều mối quan ngại cho các tổ chức và cá nhân. Việc sử dụng AI trong các cuộc tấn công có thể làm cho chúng trở nên phức tạp hơn và khó phát hiện hơn, bởi AI có thể học và thích nghi với các phòng thủ của mục tiêu. Điều này làm cho việc bảo vệ chống lại các cuộc tấn công này trở nên khó khăn hơn và đòi hỏi các chuyên gia an ninh phải đổi mới và nâng cao kiến thức của mình để đối phó với những tấn công này.
Ngoài ra, các công cụ dựa trên AI như FraudGPT có thể được sử dụng để khởi động các cuộc tấn công quy mô lớn, điều này có thể gây thiệt hại nghiêm trọng cho các tổ chức. Ví dụ, các cuộc tấn công phishing có thể được tự động hóa và nhắm mục tiêu đến một số lượng lớn cá nhân, dẫn đến việc đánh cắp thông tin nhạy cảm và chuyển khoản không được ủy quyền. Cuộc tấn công của các tin tặc qua email doanh nghiệp (BEC) cũng có thể được tự động hóa và quy mô hóa, dẫn đến các tổn thất tài chính đáng kể cho các tổ chức.
Sự xuất hiện của FraudGPT nhấn mạnh xu hướng ngày càng tăng của các tội phạm mạng sử dụng các công cụ AI để thực hiện các cuộc tấn công với độ tinh vi và hiệu suất cao hơn. Khi các công cụ dựa trên AI có thể được sử dụng cho các mục đích hợp lệ, thiếu các phương tiện đạo đức trong một số trường hợp có thể biến chúng thành một vũ khí mạnh mẽ trong tay các tin tặc. Điều này làm nổi bật nhu cầu cho các tổ chức thực thi chiến lược phòng thủ đa lớp với tất cả các dữ liệu an ninh có sẵn để phát hiện và ngăn chặn các mối đe dọa này. Hơn nữa, điều này cũng nhấn mạnh nhu cầu tăng cường sự hợp tác giữa các tổ chức, cơ quan công an và chính phủ để chống lại tội phạm mạng một cách hiệu quả.
TÀI LIỆU THAM KHẢO [1]. Carter, S., GLOBAL, T., Sieck, K., & Klenk, M. (2018). Interleaving a Symbolic Story Generator with a Neural Network-Based Large Language Model. [2]. Renaud, K., Warkentin, M., & Westerman, G. (2023). From ChatGPT to HackGPT: Meeting the Cybersecurity Threat of Generative AI. MIT Sloan Management Review. [3]. De Angelis, L., Baglivo, F., Arzilli, G., Privitera, G. P., Ferragina, P., Tozzi, A. E., & Rizzo, C. (2023). ChatGPT and the rise of large language models: the new AI-driven infodemic threat in public health. Frontiers in Public Health, 11, 1166120. [4]. Bài báo “New AI Tool 'FraudGPT' Emerges, Tailored for Sophisticated Attacks” trên website http://thehackernews.com 26/7/2023. |