MC: Cũng giống như tác động của các công nghệ khác, ứng dụng ChatGPT nói riêng và công nghệ AI nói chung trong lĩnh vực bảo mật và an toàn thông tin mang tính cách mạng, tuy nhiên có cả mặt tích cực và tiêu cực. Trong những năm gần đây, có rất nhiều sản phẩm ứng dụng AI được đưa vào sử dụng trong thực tế, đặc biệt là các sản phẩm an toàn thông tin để xác định các mối đe dọa chưa biết, phân tích dữ liệu lớn, phát hiện xâm nhập… Giáo sư Nguyễn Thanh Thủy đánh giá sao về tính hiệu quả của các giải pháp này?
GS.TS. Nguyễn Thanh Thủy (bên phải) tham gia Tọa đàm "Mặt tối của ChatGPT và hàm ý chính sách cho Việt Nam"
GS.TS. Nguyễn Thanh Thủy: Tôi nghĩ rằng, đứng trước tình thế rất nhiều các sản phẩm được sử dụng trí tuệ nhân tạo thì người dùng cần phải tỉnh táo, phải sử dụng một cách thông minh, chủ động, sẵn sàng và phải biết cách ứng phó, giảm thiểu các thiệt hại có thể có. Đây cũng chính là bốn kỹ năng cơ bản để xử lý thảm họa.
Cộng đồng làm về trí tuệ nhân tạo, đặc biệt là những người hoạt động trong lĩnh vực an ninh an toàn thông tin nên tận dụng tối đa khả năng của trí tuệ nhân tạo nói chung và ChatGPT nói riêng để tạo ra những khả năng có thể phát hiện ra lỗ hổng, xác thực thông tin. Chính điều đó cũng sẽ giúp cho chúng ta có được công cụ để chống lại mã độc.
MC: Mặc khác, AI cũng có giới hạn với lĩnh vực an ninh mạng. Xin được lắng nghe ý kiến của ông Đặng Minh Tuấn, ông đánh giá như thế nào về những thách thức bảo mật trên bình diện công nghệ AI đem lại nhiều lợi ích cho giới tội phạm mạng?
TS. Đặng Minh Tuấn: Đây thực sự là một cuộc chiến giữa hai bên tiêu cực và tích cực. Họ đều sử dụng những thành tựu mới nhất trong nghiên cứu lĩnh vực trí tuệ nhân tạo, dữ liệu lớn. Một bên cố gắng tạo ra những sản phẩm để tấn công còn một bên thì phòng thủ. Hai bên luôn cập nhật và tìm hiểu phương thức phòng tránh, thủ đoạn tấn công của nhau. Bên tấn công thì luôn tìm hiểu cách thức phòng thủ như thế nào để tạo ra những phương thức tấn công mới.
Về phía phương diện tội phạm, tin tặc sử dụng trí tuệ nhân tạo một cách linh hoạt để tạo ra thông tin, kịch bản lừa đảo một cách tự nhiên nhất, người dùng khó có thể phát hiện được nhất. Chúng cũng tạo ra được các công cụ để tấn công một cách hiệu quả nhất. Gần như những gì mặt tích cực có thể sử dụng được thì mặt tiêu cực cũng sẽ khai thác được. Vì vậy, bên tích cực cần phải liên tục cập nhật để nắm bắt được các phương thức, thủ đoạn mới của bên tiêu cực, qua đó có thể lường trước rủi ro, đồng thời cũng phải luôn luôn có các phương thức để phòng chống tấn công.
MC: Trong bối cảnh có nhiều vấn đề liên quan đến những rủi ro an ninh mạng của ChatGPT nói riêng và AI nói chung, đặc biệt là vấn đề rò rỉ, lộ lọt thông tin, vi phạm quy định về quyền riêng tư và gia tăng lừa đảo, tấn công mạng, chính quyền một số quốc gia trên thế giới đã có nhiều động thái và phản ứng khác nhau khi đưa ra các chính sách, quy định để kiểm soát chặt chẽ hơn về công nghệ trí tuệ nhân tạo này, xin được nghe ý kiến của ông Nguyễn Thanh Thủy, ông có thể chia sẻ thông tin về vấn đề này?
GS.TS. Nguyễn Thanh Thủy: Để giảm thiểu rủi ro là một giải pháp tổng thể không chỉ gồm những yếu tố công nghệ mà còn cần thêm các yếu tố quy trình và con người. Con người thì cần phải thông minh, quy trình thì cần phải chặt chẽ. Tôi xin được cung cấp thêm thông tin, đầu tiên là về vấn đề tạo ra trí tuệ nhân tạo có trách nhiệm, nó nằm chủ yếu ở phần dữ liệu, phương thức thu thập dữ liệu, nguồn dữ liệu và chất lượng để phục vụ cho việc huấn luyện trí tuệ nhân tạo. Thứ hai, tạo ra đạo đức sử dụng các sản phẩm trí tuệ nhân tạo, trong đó có cả dữ liệu và sử dụng hệ thống. Thứ ba, dần dần con người đã đưa ra các công cụ như zero GPT để tạo ra “liêm chính”. Học sinh, sinh viên có thể sử dụng ChatGPT trong học tập nhưng cần phải trung thực, sử dụng sản phẩm đấy chỉ để tham khảo.
Ý kiến thứ hai của tôi liên quan đến cộng đồng xã hội. Cách đây 6 năm đã có sự kiện quy tụ 1.000 các nhà khoa học có ảnh hưởng đến nền khoa học thế giới, cộng đồng đó thống nhất cần phải có những quan điểm và những biện pháp ở góc độ xã hội. Một trong ba chuyên gia nổi tiếng nhận giải thưởng về sản phẩm trí tuệ nhân tạo sau đó cũng ngưng toàn bộ nghiên cứu về trí tuệ nhân tạo mà tập nghiên cứu những kĩ thuật công nghệ có trách nhiệm với xã hội.
Ý kiến thứ ba, cộng đồng trí tuệ nhân tạo châu Âu cũng đã tạm dừng lại để định hướng trí tuệ nhân tạo trong tương lai và đặc biệt quan tâm tới vấn đề về trách nhiệm, đạo đức khi sử dụng trí tuệ nhân tạo.
Trí tuệ nhân tạo Việt Nam đã có diễn đàn rất lớn mang tính chất quốc gia. Tại Hội thảo AI 2023 tổ chức tại thành phố Hồ Chí Minh, Bộ Khoa học và Công nghệ, Bộ Thông tin và Truyền thông, Bộ Kế hoạch và Đầu tư và các đơn vị chức năng đã khẳng định tạo ra những sản phẩm trí tuệ nhân tạo có trách nhiệm là một trong những định hướng rất quan trọng ưu tiên hàng đầu.
Hiện tại, Bộ Khoa học và Công nghệ, Bộ Thông tin và Truyền thông đang có rất nhiều hỗ trợ cho các nhóm nghiên cứu hành lang pháp lý, các chính sách để phát triển trí tuệ nhân tạo một cách lành mạnh, nâng cao chất lượng đời sống cho con người.
MC: Vậy làm thế nào để có thể theo kịp được sự phát triển nhanh chóng của AI nói chung và ChatGPT nói riêng, phát huy những mặt tích cực và hạn chế những mặt trái của ChatGPT và AI? Liệu có phải đã đến lúc cần phát triển “an toàn, phù hợp đạo đức” và sử dụng trí tuệ nhân tạo có trách nhiệm thưa ông Đặng Minh Tuấn?
TS. Đặng Minh Tuấn: Những chia sẻ của GS.TS. Nguyễn Thanh Thủy nêu trên rất toàn diện về phương diện làm thế nào để hạn chế tiêu cực, đồng thời phát huy những tính tích cực của công nghệ trí tuệ nhân tạo mới nói chung và ChatGPT nói riêng. Bên cạnh nâng cao nhận thức, đạo đức của những người làm công nghệ hay của toàn xã hội thì tôi nghĩ là cần sớm có sự tham gia của luật pháp.
Vì khi có một công nghệ mới, một hiện tượng mới trong xã hội xuất hiện đều sẽ phải đứng trước những nguy cơ, rủi ro thì chúng ta phải thường xuyên tìm hiểu, đưa ra luật điều chỉnh một cách phù hợp. Việc quy trách nhiệm, bản quyền, sự riêng tư hiện vẫn đang là vấn đề cần phải giải quyết, cần sự tham gia của các cơ quan xây dựng văn bản quy phạm pháp luật trong công nghệ nói chung và trong lĩnh vực trí tuệ nhân tạo nói riêng.
MC: Với kinh nghiệm nhiều năm giảng dạy và nghiên cứu trong lĩnh vực AI, hai khách mời đánh giá như thế nào về thực trạng phát triển AI ở Việt Nam hiện nay và có đề xuất gì đối với các chính sách của nước ta về lĩnh vực này? Xin ý kiến của 2 khách mời.
TS. Đặng Minh Tuấn: Theo tôi, cần sớm có chế tài để có tính răn đe đối với những hành vi làm tổn hại đến cá nhân người dùng và xã hội. Tuy nhiên, đây là một vấn đề hết sức phức tạp vì nó đang xen giữa công nghệ, tính xã hội, tính đạo đức nên để rạch ròi trách nhiệm thuộc về công nghệ hay thuộc về đạo đức của cá nhân thì rất khó. Hiện nay, trên thế giới, vấn đề này vẫn đang còn rất nhiều tranh luận. Tuy nhiên, tôi cho rằng khi một cá nhân nào trong cộng đồng xã hội có chủ đích tạo ra công cụ sản phẩm thì đều phải có trách nhiệm với sản phẩm của mình. Họ phải nhận thức được về những lợi ích và tác hại của chúng. Đồng thời luôn phải cập nhật công nghệ và phải có môi trường để thử nghiệm tác hại của công nghệ mới ảnh hưởng đến đời sống xã hội như thế nào, cả về tính tích cực và tiêu cực.
TS. Đặng Minh Tuấn (bên phải) tham gia Tọa đàm "Mặt tối của ChatGPT và hàm ý chính sách cho Việt Nam"
Hiện nay, Chính phủ cũng đưa ra những cơ chế cho môi trường thử nghiệm khi luật chưa có. Chúng ta cần theo dõi và đánh giá các tác động, tích cực thì phát triển mà tiêu cực thì hạn chế và cần có những chính sách để khắc chế những tích cực này. Cụ thể, trong thời gian này, chưa thể rạch ròi được vì các cơ quan chuyên môn về pháp luật và công nghệ hiện vẫn đang tách rời, pháp luật chưa hiểu nhiều về công nghệ và bên công nghệ cũng chưa nắm được rõ pháp luật nên cần có sự hợp tác chặt chẽ để kịp thời đưa ra chủ trương, chính sách.
GS.TS. Nguyễn Thanh Thủy: Trong khi chúng tôi xây dựng chiến lược quốc gia về trí tuệ nhân tạo, vấn đề pháp lý là một vấn đề quan trọng được thể hiện rõ trong quy định của Thủ tướng. Bộ Khoa học và Công nghệ cũng đã có chỉ đạo viết một tài liệu, trong đó có nội dung trí tuệ nhân tạo là công nghệ hàm mũ trong tương lai và cũng định hướng một số vấn đề liên quan đến phát triển tại Việt Nam giai đoạn 2020-2030. Trong đây có một nội dung rất quan trọng đó là tạo ra hành lang pháp lý. Hiện Đại học Luật, Đại học Quốc gia Hà Nội nhận có nhiệm vụ nghiên cứu nền tảng pháp lý, xây dựng cơ chế chính sách, đặc biệt là chính sách hạn chế rủi ro và nguy cơ từ trí tuệ nhân tạo ở Việt Nam.
Ngoài ra, theo tôi cần phải tạo sự đồng bộ giữa cộng đồng người sử dụng và cộng đồng người phát triển ra các sản phẩm trí tuệ nhân tạo. Hơn nữa, quy trình cũng cần có hành lang pháp lý. Các cơ quan nhà nước và các cơ quan tạo ra chính sách cần phải bám sát thực tế này ở Việt Nam, để có thể tuyên truyền nhận thức về việc tạo ra các sản phẩm trí tuệ nhân tạo thì không được gây hại cho người dùng, nhận thức của người dùng thì cần phải sáng suốt, chủ động, sẵn sàng phải đối phó và giảm thiểu rủi ro. Đặc biệt, đối với những người làm về công nghệ thông tin phải có trách nhiệm trong việc thu thập dữ liệu và đảm bảo tính riêng tư, xác thực toàn diện. Cơ chế chính sách cần tạo ra một hệ sinh thái, có sự phát triển cho tất cả các bên.