Thách thức của Deepfake và vấn đề thực thi pháp luật

15:50 | 19/09/2022

Công nghệ deepfake (công nghệ AI giả mạo khuôn mặt, hình ảnh, giọng nói) tiềm ẩn nhiều nguy cơ cho xã hội. Trong một báo cáo, Trường Đại học Collecge London đã xếp deepfake là một trong những mối đe dọa lớn nhất mà xã hội phải đối mặt ngày nay.

Các chuyên gia của Tổ chức Cảnh sát Châu Âu (Europol) bày tỏ lo ngại về tác động xấu của công nghệ deepfake đến các lĩnh vực chính trị và xã hội. Đây đã trở thành vấn đề đáng báo động, làm gia tăng các tranh luận và làm xói mòn lòng tin của người dân vào những gì đang diễn ra trên không gian mạng. Đối với lực lượng thực thi pháp luật, các bản ghi âm, các hình ảnh hay video hiện trường được coi là chứng cứ tin cậy, là thông tin quan trọng mà lực lượng cảnh sát cung cấp cho tòa án. Nhưng điều gì sẽ xảy ra nếu những tệp ghi âm, hình ảnh, video này được tạo ra một cách nhân tạo, được điều chỉnh để hiển thị các sự kiện chưa từng diễn ra để xuyên tạc hoặc bóp méo sự thật.

Theo một khảo sát năm 2019 ở Anh cho thấy gần 72% người tham gia khảo sát không biết về deepfake (video, ảnh, âm thanh) và tác động của chúng. Điều này đặc biệt đáng lo ngại vì mọi người có thể không xác định được deepfake vì họ không biết về sự tồn tại của những giả mạo ảo như vậy hoặc cách chúng hoạt động thế nào. Việc thiếu hiểu biết đối với công nghệ này gây ra nhiều thách thức, trong số đó có thách thức liên quan đến thực thi pháp luật. Các nhà nghiên cứu dự báo rằng tội phạm sẽ gia tăng sử dụng deepfake trong những năm tới. Điều này cho thấy cần phải hiểu về các các mối đe dọa do công nghệ deepfake gây ra và có phương án đối phó hợp lý.

CÔNG NGHỆ ĐẰNG SAU DEEPFAKE

Deepfake sử dụng sức mạnh của công nghệ học sâu (deep learning) vào nội dung video, âm thanh, hình ảnh. Khi được sử dụng hợp lý, nó có thể tạo ra các nội dung mới, chưa bao giờ tồn tại nhưng lại thuyết phục đối với mọi người. Ở đây thảo luận về hai công nghệ chính đằng sau công nghệ deepfake. Học sâu: Học máy (ML) là một ứng dụng của AI, trong đó máy tính tự động cải tiến thông qua việc sử dụng dữ liệu. Học sâu là một lĩnh vực con của học máy áp dụng mạng nơ-ron nhằm bắt chước cách bộ não của chúng ta hoạt động để học hiệu quả hơn từ dữ liệu được cung cấp. Các thuật toán học sâu sử dụng mạng nơ-ron bắt chước các quy trình của não để tìm ra các mẫu trong cơ sở dữ liệu. Do đó, kho dữ liệu sẵn có là cần thiết cho một hệ thống deepfake. Hệ thống sẽ khám phá các mẫu trong dữ liệu có sẵn, trích xuất các tính năng nào là quan trọng và các tính năng này liên quan với nhau như thế nào. Điều đó cho phép hệ thống xây dựng một bức tranh hoàn chỉnh và thuyết phục. Tùy thuộc vào chất lượng của dữ liệu có sẵn và các yếu tố mà thuật toán sử dụng, kết quả có thể giống thực tế nhiều hay ít. Ngày nay, nhiều bộ dữ liệu có miễn phí trên Internet. Các bộ dữ liệu này rất cần cho việc đào tạo các thuật toán học máy để tạo ra các bản deepfake.

Mạng đối nghịch phát sinh (Generative Adversarial Networks – GAN): Một bước tiến lớn về chất lượng của công nghệ deepfake là sự ra đời của GAN. GAN hoạt động với hai mô hình cạnh tranh: một mô hình tạo sinh (generative model) và một mô hình phân biệt (discriminating model). Mô hình tạo sinh tạo ra nội dung dựa trên dữ liệu đào tạo có sẵn, cố gắng nắm bắt dữ liệu càng chặt chẽ càng tốt để tạo nội dung bắt chước gần giống nhất với các ví dụ trong dữ liệu đào tạo. Sau đó, một mô hình phân biệt sẽ kiểm tra kết quả của mô hình tạo sinh bằng cách đánh giá xác suất mà mẫu thử nghiệm đến từ tập dữ liệu chứ không phải từ mô hình tạo sinh. Với kết quả từ các bài kiểm tra này, các mô hình liên tục cải thiện cho đến khi nội dung được tạo ra có khả năng đến từ mô hình tạo sinh giống như dữ liệu đào tạo.

Việc tạo ra dữ liệu chất lượng là vô cùng cần thiết, cần một khối lượng lớn và sự đa dạng của dữ liệu. Khi số lượng và khối lượng cơ sở dữ liệu sẵn có ngày càng tăng, chất lượng và số lượng của dữ liệu đào tạo cũng tăng lên. Điều này đã cho phép các mô hình tạo deepfake tăng độ tinh vi.

LỢI DỤNG CÔNG NGHỆ DEEPFAKE

Giả mạo thông tin: Là hoạt động cố tình lan truyền thông tin sai lệch nhằm lừa gạt người dân. Ví dụ như việc phát tán một bản ghi âm hoặc video giả về một ứng cử viên hoặc một nhân vật chính trị nào đó trong hoạt động tranh cử. Nếu đánh lừa thành công có thể ảnh hưởng nghiêm trọng đến kết quả của cuộc bầu cử. Ví dụ khác, kẻ xấu có thể tạo ra một cảnh báo khẩn cấp giả trên mạng gây ra tâm lý lo lắng, sợ hãi của người dân. Các doanh nghiệp cũng có nguy cơ trở thành nạn nhân của thông tin giả. Ví dụ như thông tin sai lệch về cá nhân hoặc về hoạt động của ban giám đốc công ty gây ra hiểu lầm, dẫn đến tạo dư luận xấu cho công ty.

Nội dung xấu: Trong một nghiên cứu công bố tháng 12/2020, công ty Sensity (trụ sở tại Amsterdam, Hà Lan) đã tìm thấy hơn 85.000 video deepfake trên các trang web đen phổ biến, con số tăng gấp đôi sau mỗi 6 tháng. Trong một nghiên cứu trước đó vào tháng 9/2019, Sensity phát hiện rằng 96% video giả mạo có liên quan đến nội dung xấu. Để tạo ra điều này, tin tặc sẽ phủ khuôn mặt của nạn nhân lên cơ thể của một người khác làm cho nạn nhân có vẻ như đang tham gia vào hành động xấu nào đó. Trong nhiều tình huống, nạn nhân của những bức ảnh deepfake là những người nổi tiếng hoặc những cá nhân có địa vị cao.

Giả mạo tài liệu: Hộ chiếu truyền thống rất khó làm giả. Tuy nhiên đối tượng xấu có thể kết hợp hoặc thay đổi ảnh khuôn mặt của người chủ hộ chiếu và người giả hộ chiếu để làm tăng hiệu quả lừa gạt. Kỹ thuật gian lận kiểu này có thể được áp dụng cho các loại kiểm tra danh tính kỹ thuật số yêu cầu xác thực trực quan. Giả mạo tài liệu là động cơ thúc đẩy các loại tội phạm như nhập cư bất hợp pháp, buôn bán người, bán hàng bất hợp pháp, khủng bố (thủ phạm thường sử dụng ID giả). Công nghệ deepfake có thể làm tăng nguy cơ gian lận tài liệu của các nhóm tội phạm có tổ chức. Trên thực tế, khả năng nhận dạng của các tổ chức phụ thuộc vào toàn bộ quy trình kiểm tra chứ không chỉ là bước kiểm tra trực quan. Tuy nhiên, hình ảnh nhân tạo chất lượng cao sẽ làm cho tài liệu giả mạo có nhiều khả năng vượt qua kiểm tra.

Deepfake như một dịch vụ: Cũng giống như nhiều công nghệ mới khác, deepfake vẫn được sử dụng chủ yếu bởi các kỹ sư thành thạo. Tuy nhiên, khả năng deepfake ngày càng trở nên dễ tiếp cận hơn đối với công chúng thông qua các ứng dụng và trang web deepfake. Nhu cầu về deepfake tăng lên cũng dẫn đến việc ra đời các công ty chuyên cung cấp deepfake như một dịch vụ trực tuyến. Những người biết cách sử dụng AI có thể cung cấp dịch vụ cho người khác cho phép các đối tượng sử dụng kết quả deepfake vào các hoạt động bất hợp pháp.

ẢNH HƯỞNG CỦA CÔNG NGHỆ DEEPFAKE VỚI HOẠT ĐỘNG THỰC THI PHÁP LUẬT

Ảnh hưởng đến công việc của lực lượng thực thi pháp luật: Thông tin sai lệch được công bố trên mạng về các sự kiện có thể khiến các lực lượng thực thi pháp luật hành động không cần thiết hoặc không đúng chỗ. Ví dụ, cảnh sát có thể truy đuổi nhầm kẻ tình nghi nếu như ảnh của nghi can chạy trốn lan truyền trên mạng là ảnh deepfake. Trong trường hợp khác, các đối tượng xấu sử dụng video deepfake, trong đó miêu tả sai sự thật về hoạt động của cảnh sát, từ đó làm mất uy tín hoặc thậm chí kích động bạo lực đối với lực lượng cảnh sát.

Tác động đến quy trình pháp lý: Tại tòa án, bằng chứng âm thanh, video, ảnh thường được tin tưởng để làm chứng cứ cho việc xét xử. Cho dù tệp được trích xuất từ điện thoại của nghi phạm, tải xuống từ mạng hay trích xuất từ hệ thống camera giám sát gần hiện trường, tính xác thực của loại chứng cứ này trước đây ít bị nghi ngờ. Tuy nhiên với sự phát triển của deepfake, việc xác minh xem nội dung đó có phải là thật hay giả ngày càng phải thận trọng, đồng thời phải kiểm tra chéo các thông tin hiện trường. Trong tương lai gần, phần mềm deepfake có thể sẽ tạo ra các bản deepfake toàn thân, mạo danh theo thời gian thực.

Yêu cầu cao hơn đối với lực lượng thực thi pháp luật: Công nghệ deepfake phát triển đặt ra cho bên thực thi pháp luật một yêu cầu mới, khối lượng công việc tăng lên và các nhân viên thực thi pháp luật cần phát triển các kỹ năng mới. Chứng cứ giả luôn tồn tại và các cơ quan bảo vệ pháp luật phải đưa ra các quy trình mới để đánh giá giá trị của chứng cứ. Bên cạnh đó, cơ quan thực thi pháp luật còn phải đầu tư vào năng lực kỹ thuật để giải quyết những thách thức sắp tới một cách hiệu quả, đồng thời vẫn phải tôn trọng các quyền cơ bản của người dân. Cơ quan thực thi pháp luật phải xem xét vấn đề này từ nhiều khía cạnh, khi tạo ra, lưu trữ, bảo vệ và phân tích tài liệu nghe nhìn.

PHÁT HIỆN DEEPFAKE

Phát hiện thủ công: Phần lớn nội dung deepfake vẫn có thể được phát hiện theo cách thủ công bằng cách tìm kiếm sự không nhất quán trong nội dung. Đây là công việc đòi hỏi nhiều công sức, do đó chỉ có thể thực hiện với số lượng nhỏ và cần được huấn luyện để làm quen với tất cả các dấu hiệu liên quan. Các mô hình tạo ra deepfake có thể tạo ra hình ảnh đáng tin cậy, nhưng chúng vẫn có thể chứa những điểm chưa hoàn hảo khi được xem xét kỹ lưỡng. Ví dụ như: việc làm mờ xung quanh các cạnh của khuôn mặt; thiếu chớp mắt; phản xạ ánh sáng trong mắt...

Phát hiện tự động: Lý tưởng nhất là một hệ thống tự động sẽ quét nội dung kỹ thuật số và thông báo về tính xác thực của nội dung đó. Rất khó để có được một hệ thống hoàn hảo nhưng với mức độ ngày càng tinh vi của công nghệ deepfake, một hệ thống tự động có hiệu quả chấp nhận được cũng tốt hơn việc phải kiểm tra thủ công. Đã có những nỗ lực tạo ra loại phần mềm này như của Facebook [2] và công ty bảo mật McAfee [3]. Phần mềm phát hiện sẽ tìm kiếm các dấu hiệu can thiệp và giúp con người đánh giá và ra quyết định.

Tuy nhiên, có những thách thức phải đối mặt với công nghệ phát hiện deepfake. Hầu hết các mô hình phát hiện deepfake đều được đào tạo bằng cách sử dụng cơ sở dữ liệu về hình ảnh deepfake, nên rất khó để biết mức độ thành công với các mô hình chưa được cập nhật hoặc chưa biết đến. Các thuật toán phát hiện được đào tạo dựa trên các bộ dữ liệu cụ thể nên nếu thay đổi một chút phương pháp tạo ra deepfake có thể ngăn cản việc phát hiện. Bên cạnh đó, các video có thể bị nén khiến việc phát hiện các điểm không nhất quán mà hệ thống tìm kiếm trở nên khó khăn hơn. Hay một deepfake GAN có thể được cập nhật để tính đến các dấu hiệu bị phát hiện bởi các mô hình phát hiện đã biết...

PHẢN ỨNG CỦA CÁC BÊN LIÊN QUAN ĐỐI VỚI DEEPFAKE

Liên minh Châu Âu (EU): Luật pháp châu Âu đang phải cố gắng bắt kịp với sự phát triển của công nghệ và sự thay đổi định nghĩa về tội phạm. Quy định phù hợp nhất để thực thi pháp luật trong lĩnh vực deepfake là khung quy định về AI do Ủy ban Châu Âu đề xuất. Khung quy định này áp dụng cách tiếp cận dựa trên rủi ro của AI và các ứng dụng của nó. Deepfake được đề cập: hệ thống AI được sử dụng để tạo hoặc điều khiển nội dung hình ảnh, âm thanh hoặc video và phải tuân thủ các yêu cầu nhất định. Các yêu cầu tối thiểu bao gồm đánh dấu nội dung là deepfake để cho người dùng thấy là họ đang xử lý cảnh bị can thiệp hay không.

Công ty công nghệ: Để ứng phó tác động của công nghệ deepfake đối với việc thực thi pháp luật, các cơ quan thực thi pháp luật cần hiểu chính sách mà các công ty công nghệ xử lý đối với các deepfake. Ví dụ hãng Meta (tiền thân là Facebook) sẽ xóa deepfake hoặc nội dung đa phương tiện được chỉnh sửa nếu thấy “có thể gây hiểu lầm, đặc biệt là với nội dung video”. TikTok cấm “giả mạo số (Digital Forgeries) đánh lừa người dùng bằng cách bóp méo sự thật, gây tổn hại đáng kể cho chủ thể của video, người khác hoặc xã hội”. Trong khi Reddit cấm “nội dung mạo danh cá nhân hoặc tổ chức theo cách gây hiểu lầm hoặc lừa đảo”. Với Youtube, nền tảng này cấm “các nội dung đa phương tiện nếu bị xem là spam hoặc có hành vi lừa đảo”. Ngoài ra các hãng công nghệ cũng tập trung nghiên cứu công nghệ phát hiện deepfake. Google đã công bố một bộ dữ liệu về các video do deepfake tạo ra, giúp các nhà nghiên cứu tìm cách ngăn chặn vấn nạn chỉnh sửa hình ảnh nhờ AI. Microsoft đã ra mắt Microsoft Video Authenticator có thể phân tích ảnh tĩnh hoặc video để cung cấp tỷ lệ phần trăm xác suất các file âm thanh, hình ảnh, video có bị can thiệp hay không.

KẾT LUẬN

Trong thời gian tới, có thể những đối tượng xấu sẽ sử dụng công nghệ deepfake để thực hiện các hành vi phạm tội hoặc bóp méo dư luận. Những tiến bộ trong học máy và trí tuệ nhân tạo sẽ tiếp tục nâng cao khả năng của phần mềm deepfake. Mạng GAN, các bộ dữ liệu miễn phí và sức mạnh tính toán tăng lên khiến công nghệ deepfake ngày càng tinh vi, khó phân biệt nội dung thực và nội dung nhân tạo. Cơ quan thực thi pháp luật, nhà cung cấp dịch vụ trực tuyến và các cơ quan/tổ chức liên quan cần nghiên cứu ban hành chính sách mới phù hợp, đồng thời tăng cường đầu tư vào công nghệ phát hiện cũng như phòng ngừa để ứng phó với các tác động tiêu cực của deepfake.

TÀI LIỆU THAM KHẢO

1. https://www.europol.europa.eu/

2. https://msutoday.msu.edu/news/2021/deepfake-detection

3. https://www.mcafee.com/blogs/enterprise/securityoperations/the-deepfakes-lab-detecting-defending-against-deepfakes-with-advanced-ai/