Netskope phát hiện có nhiều mã nguồn được đẩy vào ChatGPT

10:36 | 12/09/2023

Mới đây, công ty phần mềm Netskope (Mỹ) đã đưa ra một báo cáo cho thấy, mã nguồn được đẩy vào ChatGPT nhiều hơn bất kỳ loại dữ liệu nhạy cảm nào, với tỷ lệ 158 sự cố trên 10 nghìn người dùng mỗi tháng.

Cùng thời điểm, nhà cung cấp nền tảng truy cập dịch vụ biên an toàn (SASE) tiết lộ, họ đã thêm các tính năng trí tuệ nhân tạo vào nền tảng của mình để xác định chính xác nhiều nguy cơ tiềm ẩn hơn và bổ sung kỹ thuật phân loại dữ liệu có thể được đào tạo để nhận ra những loại dữ liệu mới.

Naveen Palavalli, Phó Chủ tịch sản phẩm chiến lược tiếp cận thị trường của Netskope chia sẻ rằng, Netskope AI là một tập hợp các siêu công nghệ AI mà công ty hiện đang áp dụng thông qua nền tảng SASE dựa trên đám mây. Trên thực tế, Netskope đang mở rộng khả năng ngăn ngừa mất dữ liệu (DLP) mà nó cung cấp bằng cách sử dụng thuật toán AI và máy học để giám sát lưu lượng mạng.

DLP đang ngày càng trở thành mối quan tâm lớn hơn khi người dùng cuối tải thêm nhiều dữ liệu nhạy cảm liên quan đến sở hữu trí tuệ như mã nguồn, dữ liệu bảo vệ sức khỏe và các thông tin định danh cá nhân lên các dịch vụ công cộng như ChatGPT. Từ khi có các biện pháp hạn chế đúng đắn được thiết lập cho dữ liệu, nó sẽ được dùng để đào tạo các mô hình ngôn ngữ lớn (LLM) và dẫn đến việc dữ liệu có thể được truy cập bởi bất kỳ người nào.

Theo Palavalli, một số tổ chức đang cấm việc sử dụng các nền tảng như GPT vì những quan ngại đó nhưng trong thực tế, việc trển khai các tính năng DLP để cảnh báo người dùng khi họ chia sẻ những dữ liệu nhạy cảm sẽ tốt hơn. Nếu không, người dùng cuối sẽ tìm các cách để bí mật sử dụng các nền tảng AI mà không có hướng dẫn an toàn.

Nhìn chung, khi AI tiếp tục phát triển, các tổ chức sẽ cần dựa vào các nền tảng dựa trên đám mây để lưu trữ và phân tích lượng dữ liệu khổng lồ cần để đào tạo các mô hình AI. Phần lớn các tổ chức sẽ không có nguồn lực công ghệ thông tin cần thiết để tự thu thập, lưu trữ và phân tích khối lượng dữ liệu lớn như vậy. Dù muốn hay không, các tổ chức đang tham dự vào một cuộc chạy đua an toàn mạng cho AI mà chỉ có thể thắng được bằng cách dựa vào các nhà cung cấp có nguồn lực cần thiết để theo kịp mức độ đầu tư mà giới tội phạm đang đổ vào AI tạo sinh để tạo ra các cuộc tấn công lừa đảo bằng hình ảnh giả danh sếp của nạn nhân.

Tất nhiên không thiếu các nhà cung cấp an ninh mạng đang đầu tư vào AI. Các tổ chức cần hiểu, chấp nhận và tìm cách ứng phó với thực tế khi hầu hết các chuyên gia an ninh mạng đều không muốn làm việc cho tổ chức không cung cấp đầy đủ những công cụ họ cần có. Sự thật đơn giản là, các tổ chức không thể truy cập các nền tảng anh ninh mạng AI sẽ trở thành đích nhắm dễ dàng của tội phạm mạng sử dụng AI. Thứ duy nhất cần xác định là mức độ thiệt hại mà những cuộc tấn công đó sẽ gây ra trước khi các tổ chức có thể xây dựng các biện pháp phòng thủ.