Cảnh báo của Europol về các hoạt động tội phạm từ ChatGPT và hệ thống AI

09:57 | 10/04/2023

Ngày 27/3, Cơ quan thực thi pháp luật EU đã công bố một báo cáo nhanh cảnh báo rằng ChatGPT và các hệ thống AI tổng quát khác có thể được sử dụng để lừa đảo trực tuyến và các tội phạm mạng khác.

Kể từ khi ra mắt vào cuối tháng 11/2022, ChatGPT đã trở thành một trong những dịch vụ internet phát triển nhanh nhất, vượt mốc 100 triệu người dùng trong vòng hai tháng đầu tiên. Nhờ khả năng tạo văn bản giống con người dựa trên những dữ liệu sẵn có tiện lợi chưa từng có nên mô hình này đã lan truyền nhanh chóng.

Các mô hình ngôn ngữ lớn có thể được sử dụng cho nhiều mục đích khác nhau, như ChatGPT của Open AI, có thể mang lại lợi ích cho doanh nghiệp và người dùng cá nhân. Tuy nhiên, cơ quan cảnh sát châu Âu nhấn mạnh rằng họ cũng đặt ra một thách thức cho việc thực thi pháp luật vì những kẻ xấu có thể khai thác chúng.

Báo cáo cho biết: “Tội phạm đã nhanh chóng khai thác các công nghệ mới và kịp thời đưa ra các cách thức hoạt động tội phạm, các dấu hiệu tội phạm mạng đã xuất hiện chỉ vài tuần sau khi ChatGPT được phát hành công khai”.

Báo cáo này được tổng kết từ một loạt hội thảo do Phòng thí nghiệm đổi mới của Europol tổ chức để thảo luận về khả năng sử dụng ChatGPT trong tội phạm như một ví dụ nổi bật nhất về các mô hình ngôn ngữ lớn và cách thức sử dụng các mô hình AI này để hỗ trợ công việc điều tra.

Điểm yếu của hệ thống

Europol chỉ ra thực tế rằng các quy tắc kiểm duyệt của ChatGPT có thể bị phá vỡ thông qua cái gọi là kỹ thuật mau lẹ (prompt engineering), từ yêu cầu cung cấp đầu vào trong mô hình AI một cách chính xác để có được đầu ra cụ thể.

Vì ChatGPT là một công nghệ tương đối mới, các lỗ hổng liên tục được tìm thấy mặc dù các bản vá được liên tục cập nhật. Những sơ hở này có thể ở dạng yêu cầu AI đưa ra lời nhắc, yêu cầu AI giả vờ là một nhân vật hư cấu hoặc cung cấp câu trả lời bằng mã.

Các cách lách luật khác có thể thay thế các từ kích hoạt hoặc thay đổi ngữ cảnh sau này trong quá trình tương tác. Cơ quan EU nhấn mạnh rằng các giải pháp thay thế hiệu quả nhất, quản lý để bẻ khóa mô hình khỏi mọi ràng buộc, liên tục phát triển và trở nên hết sức phức tạp.

Ứng dụng hoạt động tội phạm

Các chuyên gia đã xác định một loạt các trường hợp sử dụng bất hợp pháp trong ChatGPT cũng đã xuất hiện trong các mô hình tiên tiến nhất của OpenAI, GPT-4, trong đó khả năng phản hồi có hại của hệ thống thậm chí có một số trường hợp còn cao hơn trong mô hình ChatGPT.

Vì ChatGPT có thể tạo thông tin có thể đọc để sử dụng nên Europol cảnh báo rằng, công nghệ mới nổi này có thể đẩy nhanh quá trình nghiên cứu một tác nhân độc hại mà không cần biết trước về lĩnh vực tội phạm tiềm ẩn như đột nhập vào nhà, khủng bố, tội phạm mạng hoặc lạm dụng tình dục trẻ em.

“Mặc dù tất cả thông tin mà ChatGPT cung cấp đều có sẵn miễn phí trên internet, nhưng khả năng sử dụng mô hình để cung cấp các bước cụ thể bằng cách đặt câu hỏi theo ngữ cảnh có nghĩa là hacker sẽ dễ dàng hiểu rõ hơn và sau đó thực hiện nhiều loại tội phạm khác nhau,” báo cáo cho biết.

Lừa đảo, hành vi gửi email giả mạo để khiến người dùng nhấp vào liên kết, là một lĩnh vực ứng dụng quan trọng. Trước đây, những trò gian lận này có thể dễ dàng bị phát hiện do lỗi ngữ pháp hoặc ngôn ngữ, trong khi văn bản do AI tạo ra cho phép những trò mạo danh này có tính thực tế cao.

Tương tự như vậy, gian lận trực tuyến có thể được tăng cường hình ảnh về tính hợp pháp bằng cách sử dụng ChatGPT để tạo ra sự tương tác giả mạo trên mạng xã hội, có thể biến đổi một đề nghị gian lận là hợp pháp. Nói cách khác, nhờ các mô hình này, “các loại lừa đảo trực tuyến và lừa đảo này có thể được tạo ra nhanh hơn, xác thực hơn nhiều và ở quy mô tăng lên đáng kể”.

Ngoài ra, khả năng mạo danh phong cách và lời nói của một người cụ thể của AI có thể dẫn đến một số trường hợp lạm dụng liên quan đến tuyên truyền, ngôn từ kích động thù địch và thông tin sai lệch.

Bên cạnh văn bản, ChatGPT cũng có thể tạo mã bằng các ngôn ngữ lập trình khác nhau, mở rộng khả năng của các tác nhân độc hại có ít hoặc không có kiến ​​thức về phát triển CNTT để biến ngôn ngữ tự nhiên thành phần mềm độc hại.

Ngay sau khi phát hành ChatGPT ra công chúng, công ty bảo mật Check Point Research đã tường trình về cách thức mô hình AI được sử dụng để tạo ra một luồng lây nhiễm hoàn chỉnh bằng cách tạo các email lừa đảo từ lừa đảo trực tiếp đến chạy một shell ngược chấp nhận các lệnh bằng tiếng Anh.

“Điều quan trọng là các biện pháp bảo vệ ngăn ChatGPT cung cấp mã độc tiềm ẩn chỉ hoạt động nếu mô hình hiểu những gì nó đang làm. Nếu các lời nhắc được chia thành các bước riêng lẻ, thì việc bỏ qua các biện pháp an toàn này là rất dễ dàng,” báo cáo cho biết thêm.

Tương lai của các mô hình AI

ChatGPT được coi là một mô hình AI có mục đích chung, một mô hình mà có thể được điều chỉnh để thực hiện các nhiệm vụ khác nhau.

Hiện nay, Nghị viện Châu Âu đang xây dựng về Đạo luật AI, các MEP đã thảo luận về việc đưa ra một số yêu cầu nghiêm ngặt đối với mô hình nền tảng này, bao gồm quản lý rủi ro, độ ổn định và tính kiểm soát chất lượng của hệ thống.

Europol đánh giá rằng, thách thức do các hệ thống AI đặt ra sẽ là tăng lên khi chúng ngày càng trở nên phổ biến và tinh vi, chẳng hạn như với việc tạo ra các nội dung giả mạo sâu có sức thuyết phục cao.

Một rủi ro khác là các mô hình ngôn ngữ lớn này có thể xuất hiện trên web đen mà không có bất kỳ biện pháp bảo vệ nào và được đào tạo bằng dữ liệu đặc biệt có hại. Loại dữ liệu sẽ cung cấp cho các hệ thống này và cách thức chúng có thể được kiểm soát là những dấu hỏi lớn cho tương lai.