Trí tuệ nhân tạo - Vũ khí tiềm năng trong cả phòng thủ và tấn công mạng

16:52 | 19/10/2021

Có nhiều câu hỏi đặt ra rằng xung quanh các vấn đề về trí tuệ nhân tạo (AI) như, AI là giải pháp hay mối đe dọa nguy hiểm cho an ninh mạng? Làm thế nào để AI có thể trở thành vũ khí cho các tổ chức tấn công? Phải làm gì trong tương lai nếu tin tặc sở hữu vũ khí nguy hiểm này? Bài viết dưới đây sẽ giải quyết những câu hỏi này.

Trước khi đi sâu vào các câu hỏi trên, chúng ta cùng nhắc lại khái niệm của trí tuệ nhân tạo. Theo Poole, Mackworth & Goebel (1998), trong khoa học máy tính, AI là trí thông minh được thể hiện bằng máy móc, trái ngược với trí thông minh tự nhiên được con người thể hiện thông qua ý thức và cảm xúc, và dù với bất cứ định nghĩa nào, AI được sử dụng để hỗ trợ và giải quyết những vấn đề của con người. Nghĩa là, AI sẽ hỗ trợ và giải quyết vấn đề của con người bất kể mục đích của người triển khai có ảnh hưởng tích cực hay tiêu cực đi nữa.

Chỉ 10 năm về trước, AI vẫn còn xa lạ với nhiều quốc gia trên thế giới, nhưng giờ đây đã trở thành một làn sóng toàn cầu cùng sự ghi nhận bởi những giá trị to lớn. Phải kể đến tiềm năng trong những lĩnh vực như: giáo dục (tự động hóa quản lý và đánh giá), y tế, giao thông (xe tự lái, trạm kiểm soát...), dịch vụ (mua sắm, chatbot, trợ lý ảo, gaming,...), kinh tế, quốc phòng, an ninh... AI đã trở nên phổ biến trong mọi lĩnh vực của cuộc sống.

Theo tập đoàn truyền thông Comcast, năm 2018 đã thống kê được hơn 53.308 vụ vi phạm an toàn thông tin, trong đó có 2.216 sự cố rò rỉ dữ liệu. Hơn 2/3 trong số tấn công đó phải mất 6 tháng hoặc lâu hơn để phát hiện. Bên cạnh đó, các tổ chức/doanh nghiệp phải trả trung bình 40 triệu USD cho một sự cố rò rỉ dữ liệu có tầm ảnh hưởng hơn 1 triệu hồ sơ. Ngoài ra, 75% khách hàng tham gia cuộc thăm dò của đài CBC năm 2019 đã cho rằng, họ sẽ không hợp tác với tổ chức/doanh nghiệp mà họ không tin tưởng về đảm bảo an toàn thông tin.

AI chính là công cụ xuất hiện để khắc phục sự thiếu hụt chuyên gia trong an toàn thông tin. Thị trường an ninh mạng AI dự kiến sẽ đạt 35 tỷ USD vào năm 2024. Việc sử dụng ứng dụng AI để phân tích dữ liệu và dự đoán kết quả đã đem lại lợi ích to lớn cho ngành công nghiệp quốc phòng và an ninh mạng.

Ngoài ra, những hệ thống phòng chống virus và thông tin về mối đe dọa (threat intelligence) đang sử dụng học máy để trở nên hiệu quả hơn. Ví dụ, Cơ quan dự án Nghiên Cứu Quốc phòng tiên tiến Hoa Kỳ (Defence Advanced Research Projects Agency) và Cơ quan Quốc phòng Châu Âu (European Defence Agency) đang cố gắng kết hợp AI để nâng cao khả năng ứng phó và bảo vệ an ninh mạng.

Tuy nhiên, theo Geert van der Linden - Phó chủ tịch điều hành an ninh mạng của Công ty dịch vụ công nghệ thông tin Capgemini: "Tất cả mọi thứ bạn phát minh để bảo vệ mình, cuối cùng cũng có thể được sử dụng để chống lại bạn. Nhưng tình hình hiện nay có sự khác biệt, vì con người chúng ta đang ngày càng mất kiểm soát".

Các nguy cơ to lớn và đa dạng trong việc lạm dụng AI đã được chú trọng trong một số báo cáo mang tính bước ngoặt của nhiều tổ chức nghiên cứu vào năm 2018, bao gồm Viện Tương lai nhân loại của Đại học Oxford, Trung tâm nghiên cứu rủi ro hiện sinh của Đại học Cambridge, Công ty phi lợi nhuận phát triển và triển khai AI - OpenAI, Nhóm quyền kỹ thuật số phi lợi nhuận quốc tế - Electronic Frontier Foundation, và các tổ chức khác. Báo cáo hơn 100 trang này cho thấy khả năng nói chung của việc sử dụng AI sai mục đích trong bảo mật số, cuộc sống và xã hội.

Dự báo sự phát triển nhanh chóng của tội phạm và lạm dụng máy bay không người lái trong thập kỷ tới - cũng như sự gia tăng chưa từng có trong việc sử dụng 'bot' để thao túng mọi thứ từ chương trình tin tức tới những phương tiện truyền thông xã hội”.

Và cuộc tấn công mạng đầu tiên với sự hỗ trợ của AI được ghi nhận vào năm 2007, thông qua một chatbot hẹn hò có tên CyberLover được đánh giá là "kỹ thuật xã hội đang tiến tới mức độ chưa từng có". Chatbot được xây dựng dựa trên kỹ thuật xử lý ngôn ngữ tự nhiên (Natural Language Processing) nhằm lập hồ sơ cho mục tiêu và tạo ra các phản hồi chat tùy chỉnh có chứa các siêu liên kết lừa đảo. CyberLover trở nên khét tiếng với những vụ đánh cắp dữ liệu cá nhân, ước tính CyberLover có thể thiết lập một mối quan hệ mới sau mỗi 3 phút. Tuy nhiên, AI có thể vừa là giải pháp và cũng có thể là vũ khí tấn công an ninh mạng tùy thuộc vào mục đích của người sử dụng.

AI - giải pháp trong phòng thủ an ninh mạng

Quản lý lỗ hổng

Hiện nay, một số lượng lớn lỗ hổng được phát hiện ra mỗi ngày. Các kỹ thuật quản lý lỗ hổng thông thường chỉ ứng phó với sự cố sau khi tin tặc đã khai thác lỗ hổng. AI có thể củng cố khả năng quản lý lỗ hổng của các cơ sở dữ liệu lỗ hổng bảo mật. Thêm vào đó, một số công cụ phân tích hành vi của người dùng và sự kiện khi được áp dụng AI có khả năng phân tích hành vi người dùng, sau đó phát hiện các hành vi bất thường có thể là dấu hiệu của một cuộc tấn công chưa xác định. Từ đó, hỗ trợ bảo vệ các tổ chức ngay cả khi những lỗ hổng chưa được báo cáo hoặc được vá.

Tìm kiếm mối đe dọa

Các công cụ bảo mật thông thường sử dụng dấu hiệu hoặc thông báo tấn công để xác định mối đe dọa. Kỹ thuật này có thể dễ dàng phát hiện các mối đe dọa đã được xác định, nhưng không thể phát hiện những mối đe dọa chưa được biết trước. AI có khả năng học từ bản mẫu và đồng thời liên tục cập nhật ngay trong khi làm việc nhằm tăng tỷ lệ phát hiện.

Trong bảo mật mạng

Bảo mật mạng truyền thống có 2 khía cạnh chuyên sâu:

- Tạo ra những chính sách bảo mật để xác định những kết nối mạng nào là hợp lệ, những kết nối nào được xem là gây hại. Tuy nhiên, thách thức nằm ở việc tạo và duy trì những chính sách với một số lượng lớn kết nối mạng;

- Sử dụng cấu trúc liên kết mạng (topography): hầu hết các tổ chức không có quy ước chính xác tên cho các ứng dụng và khối lượng công việc (workload). Kết quả là đội ngũ bảo mật phải dành nhiều thời gian để xác định các khối lượng công việc như thế nào về một ứng dụng cụ thể.

AI có thể được sử dụng để cải thiện bảo mật mạng bằng cách học các mẫu lưu lượng mạng và đề xuất nhóm chức năng của khối lượng công việc và chính sách bảo mật.

Hỗ trợ trung tâm dữ liệu

AI có thể tối ưu hóa và giám sát các tiến trình thiết yếu của trung tâm dữ liệu như năng lượng dự phòng, bộ lọc làm mát, năng lượng tiêu thụ, nhiệt độ bên trong và băng thông sử dụng. Google đã giảm 40% chi phí làm mát cơ sở vật chất và 15% năng lượng tiêu thụ sau khi triển khai kỹ thuật AI trong các trung tâm dữ liệu năm 2016. Từ đó, giảm tải cho lượng xử lý của hệ thống bảo mật.

AI đang trở thành mối đe dọa đối với an toàn thông tin

Đối với các nhiệm vụ lặp lại

Một trong khả năng thực hiện hành vi độc hại của AI là sự hiệu quả trong việc thực hiện những nhiệm vụ lặp lại. Ví dụ, trong sự kiện mua bán vé Ticketmaster năm 2010, các công cụ AI đã đánh bại xác thực Captcha - một xác nhận kiểm tra người dùng là máy tính hay con người. Những nhiệm vụ lặp lại, như đoán mật khẩu, tấn công vét cạn và đánh cắp mật khẩu, hay tự động hóa việc sinh nhiệm vụ khai thác - cần được xem xét như là sân chơi hứa hẹn cho nhiệm vụ kiểm tra nguyên mẫu mà có thể phát triển thành các biện pháp tấn công tiên tiến hơn. Ví dụ, một số thử nghiệm như tấn công vét cạn mật khẩu và đánh cắp mật khẩu, đã cho tỉ lệ thành công lần lượt là trên 50% và trên 90%.

Lừa dối và thao túng

Lừa dối và thao túng dường như là khả năng có thể phát triển bằng AI. Công ty tiếp thị kỹ thuật số Fractl (Mỹ) đã miêu tả cách AI có thể phát tán một làn sóng tin tức giả mạo và thông tin sai lệch. Sử dụng những công cụ AI có sẵn, hãng đã tạo ra một trang web bao gồm 30 bài đăng blog, cùng với ảnh chân dung của những tác giả không có thật do AI tự sinh ra.

Đối với tấn công lừa đảo, kỹ thuật triển khai thuật toán học máy của loại tấn công này có thể cho phép tin tặc tạo ra các thông điệp lôi cuốn nhằm lừa đảo nạn nhân, từ đó có thể xâm nhập vào dữ liệu nhạy cảm hoặc cài đặt những chương trình độc hại.

Trong một thí nghiệm năm 2016, công ty an ninh mạng ZeroFox (Mỹ) đã tạo ra một thuật toán AI tên là SNAPR có khả năng đăng trung bình 6,75 tweet lừa đảo mỗi phút tới 800 người, trong đó có 275 người nhận đã nhấp vào liên kết độc hại. Kết quả này vượt xa hiệu xuất con người: tạo 1.075 tweet mỗi phút cho 125 người và chỉ thuyết phục được 49 người trong số họ nhấp vào liên kết.

Giả mạo sâu (deep fake) đang tạo ra một chiến trường bảo mật mới, khiến những thiếu hụt về kỹ năng an ninh mạng là đáng lo ngại. Được sử dụng trong lĩnh vực chính trị, các phân tích chi tiết, tuyên truyền có mục tiêu và video giả mạo có độ tin cậy cao đang trở thành những công cụ mạnh mẽ để thao túng dư luận ở quy mô mà trước đây không thể tưởng tượng.

Bắt chước các mô hình hành vi thông thường

Tấn công được hỗ trợ bởi AI đang bắt đầu bắt chước các mô hình hành vi thông thường trên các hệ thống mạng mục tiêu, khiến chúng trở nên khó bị phát hiện hơn. Trong khi công nghệ phân tích hành vi mạng vẫn đang được sử dụng trong bảo mật, nghiên cứu chỉ ra rằng công nghệ này cũng có thể sẽ bị sử dụng cho mục đích độc hại. Ngoài ra, một lĩnh vực nghiên cứu mới nổi liên quan đến khả năng tấn công các máy phân loại mà xác định mẫu của dữ liệu, như bộ lọc spam để lọc thư rác. Với những ứng dụng mới trong xử lý ngôn ngữ tự nhiên và những mô hình AI phân loại khác, mối quan tâm về bảo mật đang trở lên đa dạng hơn.

Với khả năng tổng hợp, phân tích và hành động dựa trên thông tin công dân ở quy mô lớn, AI có thể cho phép những cấp độ mới về giám sát, xâm phạm quyền riêng tư và đe dọa, thay đổi hoàn toàn quyền lực giữa các cá nhân, tập đoàn và nhà nước.

Kết hợp với mã độc

AI đã bắt đầu được sử dụng trong mã độc, khiến chúng có khả năng thích ứng theo thời gian thực nếu nhận thấy được bất cứ chương trình phát hiện nào. Mã độc sử dụng AI sẽ có khả năng lựa chọn đối tượng tấn công chính xác hơn - thông qua khả năng phân loại của AI để tìm nạn nhân dễ bị tấn công hoặc có giá trị tấn công cao hơn, và đánh lừa các hệ thống phát hiện tự động, đe dọa thông tin cá nhân và tài chính.

Phá vỡ các hệ thống AI

Các nhà nghiên cứu về thị giác máy tính đang cố gắng ngăn chặn những tấn công được thiết kế nhằm phá vỡ hệ thống AI, hoặc khai thác các lỗ hổng thông qua chính hệ thống AI. Bằng cách phát hiện cách hệ thống AI hoạt động, tin tặc có thể thêm dữ liệu gây nhầm lẫn (các mẫu đối nghịch và nhiễm độc dữ liệu) hệ thống, khiến hệ thống xác định nhầm. Ngoài ra, các nhà nghiên cứu hàng đầu thừa nhận rằng, họ không thực sự có giải pháp hữu hiệu để ngăn chặn sự phá hoại này.

Ngoài ra, trong các hệ thống máy bay không người lái và hệ thống không gian mạng thực-ảo, nếu tin tặc có thể chiếm quyền kiểm soát sẽ gây ra thiệt hại nặng nề như các phương tiện tự động sẽ đâm nhau, biến máy bay không người lái thành tên lửa để nhắm mục tiêu, nắm giữ cơ sở hạ tầng quan trọng để yêu cầu tiền chuộc,...

Hướng đi trong tương lai

AI có thể là nhân tạo nhưng những rủi ro là thật, trực tiếp ảnh hưởng đến an ninh mạng và gây ra các thiệt hại. Vì vậy, các tổ chức/doanh nghiệp cần chuẩn bị để đối phó với những tấn công mạng có sự hỗ trợ của AI khi chúng ngày càng trở lên tinh vi và mạnh mẽ. Và để đối phó với những cuộc tấn công sử dụng AI, ngành an ninh mạng cần thực hiện những gì luôn được làm trong suốt quá trình chuyển đổi công nghệ - đó là đi trước một bước đối với kẻ tấn công.

Theo Mezic: "Hệ thống an ninh AI cần phải có khả năng nhận thức rằng một hệ thống AI bên ngoài có thể đang cố gắng giả mạo hoặc thậm chí học cách hệ thống an ninh AI đang hoạt động. Làm thế nào để có thể viết quy tắc cho việc này? Đó là vấn đề kỹ thuật quan trọng. Hệ thống AI phải học cách nhận biết liệu có bất kỳ thay đổi nào trên hệ thống mà có thể được tạo bởi một hệ thống AI khác hay không. Hệ thống của chúng tôi được thiết kế để giải quyết điều đó. Tôi nghĩ rằng chúng tôi đang đi trước một bước. Và chúng tôi luôn cố gắng để đảm bảo rằng sẽ tiếp tục đi trước một bước đối với kẻ tấn công".

Theo Burg, lãnh đạo an ninh mạng của EY Americas - tổ chức dịch vụ đa ngành kết nối toàn cầu tại Mỹ: "Tôi nghĩ chúng ta phải đảm bảo rằng, vì chúng ta đang sử dụng công nghệ này để làm rất nhiều điều... nên cần phải giám sát những ứng dụng của công nghệ này, và nhận thức rằng có thể xảy ra những hậu quả không lường trước. Chúng ta thực sự cần suy nghĩ về những ảnh hưởng và hệ quả, không phải chỉ tin tưởng mù quáng rằng công nghệ này hoàn toàn là giải pháp hữu ích".

AI đã trở lên phổ biến và giá trị với lợi ích và tiềm năng trong lĩnh vực an ninh, nhưng công nghệ này không chỉ là lá chắn mà còn là vũ khí tấn công trong cuộc chiến bảo vệ an ninh mạng. Để giữ vững sự an toàn, an ninh và cũng như rất nhiều chuyển đổi công nghệ khác, thì không chỉ những tổ chức/doanh nghiệp, mà cần cả sự kết hợp nguồn lực từ các viện nghiên cứu, các trường đại học, nhà phát triển,... cùng đối mặt với rủi ro và nỗ lực để có thể vượt lên trước những tấn công và những mối đe dọa nguy hiểm trong tương lai.

Từ những cách tiếp cận khác nhau mà AI có thể được dùng để tấn công các hệ thống bảo mật hoặc để củng cố an ninh mạng, thì một số giải pháp có thể được thực hiện để giảm thiểu khả năng các tổ chức hoặc người dùng bị tấn công như sau:

- Các tổ chức phát triển hệ thống AI cần những tiêu chuẩn và hướng dẫn để đảm bảo chất lượng dữ liệu về tính chính xác, bảo mật, sai số, riêng tư,..

- Các thuật toán AI được sử dụng trong an ninh mạng cần được huấn luyện lại thường xuyên để nhận diện các loại tấn công mới.

- Các tổ chức an ninh mạng cần thường xuyên tổ chức diễn tập để ứng phó các cuộc tấn công có chủ đích.

- Chuẩn bị hợp lý: các nhà phát triển hệ thống AI có thể lưu ý tới những lỗ hổng tiềm ẩn của hệ thống để các hệ thống AI có thể được triển khai cùng với một số cơ chế bảo vệ

- Người dùng có thể sử dụng mạng riêng ảo (VPN) nhằm bảo vệ dữ liệu cá nhân khi sử dụng mạng công cộng, sử dụng mật khẩu mạnh, tránh nhấn vào các kết nối đáng ngờ,...

Tài liệu tham khảo

  1. Erik, Z. (5/5/2020) Malicious Use of AI Poses a Real Cybersecurity Threat. Darkreading. https://www.darkreading.com/vulnerabilities---threats/malicious-use-of-ai-poses-a-real-cybersecurity-threat/a/d-id/1337690#:~:text=The%20use%20of%20artificial%20intelligence,the%20cybersecurity%20and%20defense%20industries
  2. Nabeel, A. (2019) Artificial Intelligence: A Tool or a Threat to Cybersecurity? Readwrite. https://readwrite.com/2019/08/21/artificial-intelligence-a-tool-or-a-threat-to-cybersecurity/
  3. Chris, O. (2020) Is AI cybersecurity’s salvation or its greatest threat? Venturebeat. https://venturebeat.com/2020/02/11/is-ai-cybersecuritys-salvation-or-its-greatest-threat/
  4. Stuart, R. Malicious AI Report. University of Cambridge. https://www.cam.ac.uk/Malicious-AI-Report
  5. Eddie Segal (6/2020), “AI Applications in Cybersecurity with Real-life Examples”, altexsoft.com, https://www.altexsoft.com/blog/ai-cybersecurity/ accessed on 5/3/2021.
  6. Harold Kilpatrick (1/2019), “How Artificial Intelligence Can Be Used Maliciously in Cybersecurity”, datapine.com, https://www.datapine.com/blog/ai-in-cybersecurity/, accessed on 5/3/2021.
  7. Veronica Combs (7/2020), “Three ways criminals use artificial intelligence in cybersecurity attacks”, TechRepuplic, https://www.techrepublic.com/article/3-ways-criminals-use-artificial-intelligence-in-cybersecurity-attacks/, accessed on 5/3/2021.