20 C
Vietnam
spot_img
HomeCông NghệNhận diện Deepfake - Công nghệ trí tuệ nhân tạo giả mạo...

Nhận diện Deepfake – Công nghệ trí tuệ nhân tạo giả mạo và cách phòng ngừa

1. Deepfake là gì

Deepfake – công nghệ trí tuệ nhân tạo (AI) giả mạo hình ảnh, giọng nói nhằm mục đích xấu, chiếm đoạt tài sản. Thủ đoạn tinh vi này đang là mối lo ngại với rất nhiều người dùng Internet trong thời gian vừa qua và khái niệm này đang được đề cập rất nhiều trên các phương tiện truyền thông.

Deepfake là từ được ghép lại từ hai chữ “Deep” trong Deep-learning (học sâu) và “fake” (giả mạo). Deepfake có thể hiểu là một AI tiên tiến sử dụng nhiều lớp thuật toán máy học để trích xuất dần dần các tính năng cấp cao hơn từ một đầu vào có lượng dữ liệu thô, nó có khả năng học hỏi từ dữ liệu phi cấu trúc – chẳng hạn như khuôn mặt người. Nó thậm chí có thể thu thập dữ liệu về các chuyển động vật lí của con người.

Dữ liệu hình ảnh sẽ được xử lí tiếp để tạo video Deepfake thông qua mạng lưới đối thủ sáng tạo (GAN – Generative Adversarial Networks). Đây là một loại hệ thống các máy học chuyên dụng, hai mạng thần kinh có thể được sử dụng để cạnh tranh với nhau trong việc học các đặc điểm đã có trong kho dữ liệu thông tin nhằm mục đích huấn luyện AI (chụp ảnh khuôn mặt) và sau đó tạo dữ liệu mới có cùng đặc điểm (ảnh mới).

Khả năng học hỏi của các AI luôn được kiểm tra liên tục và so sánh với dữ liệu gốc nhằm mục đích huấn luyện, chính vì vậy mà hình ảnh được AI “làm giả” ngày càng trở nên thuyết phục. Điều này khiến cho Deepfake đang là mối đe dọa lớn hơn bao giờ hết. Không chỉ hình ảnh, AI còn có thể giả mạo các dữ liệu khác, một số công nghệ Deepfake đã có thể được sử dụng để giả giọng nói.

2. Sử dụng Deepfake để tung tin giả

Cụm từ “Deepfake” xuất hiện công khai trên Internet từ khoảng cuối năm 2017. Công nghệ này được biết đến rộng rãi khi một người dùng trên mạng xã hội Reddit đã sử dụng nó để hoán đổi gương mặt của người nổi tiếng vào trong các bộ phim người lớn với độ chính xác khá cao mà không mất nhiều công sức. Dù hứng chịu sự chỉ trích mạnh mẽ từ dư luận, nhưng Deepfake vẫn được giới chuyên gia theo dõi và thậm chí tham gia phát triển.

Trong ví dụ mới nhất về công nghệ Deepfake mới được công bố, các nhà nghiên cứu đã cho thấy, phần mềm mới sử dụng các thuật toán máy học có thể cho phép người dùng chỉnh sửa nội dung đã được văn bản hóa của video để thêm, xóa hoặc thay đổi các từ phát ra từ miệng của người nói trong video.

Để tạo ra những đoạn giả được thêm vào video gốc, các nhà nghiên cứu đã kết hợp một số kĩ thuật. Đầu tiên, họ quét video gốc để cô lập các âm vị (những âm thanh cấu thành nên các từ) được nói bởi người tham gia. Các nhà nghiên cứu sau đó kết nối các âm vị này với các biểu cảm khuôn mặt tương ứng khi thể hiện mỗi âm vị đó. Cuối cùng, họ tạo ra một mô hình 3D của nửa dưới khuôn mặt người nói bằng cách sử dụng video gốc.

Khi ai đó chỉnh sửa nội dung được văn bản hóa của video, phần mềm sẽ kết hợp tất cả dữ liệu được thu thập này gồm âm vị, hình ảnh và mô hình khuôn mặt 3D để tạo cảnh quay mới phù hợp với nội dung được thêm bớt vào văn bản. Sau đó, phần mềm sẽ dán thành phẩm vào video gốc để tạo nên video cuối cùng.

Công nghệ này vẫn chưa thực sự hoàn hảo. Các thuật toán chỉ hoạt động trên các video dạng quay chính mặt người nói và cần lượng dữ liệu đầu vào khoảng 40 phút. Bài phát biểu được chỉnh sửa cũng không thể khác quá nhiều so với video gốc vì chất lượng âm thanh dù đã có cải thiện vẫn khá thấp so với chất lượng nguyên bản. Các nhà nghiên cứu cũng lưu ý rằng, họ chưa thể thay đổi tâm trạng hoặc giọng điệu của người nói vì làm như vậy sẽ dẫn đến kết quả “khá kì lạ và hơi đáng sợ”. Ngoài ra, nếu khuôn mặt người nói bị che khuất bất cứ khi nào, như ai đó vẫy tay trong khi nói thì thuật toán sẽ thất bại hoàn toàn.

Song, những hạn chế luôn xuất hiện trong giai đoạn ban đầu và chúng gần như luôn được khắc phục. Điều đó đồng nghĩa là công chúng sẽ sớm phải đối mặt với sự xuất hiện của phần mềm cho phép bất cứ ai chỉnh sửa những gì người khác nói trong video mà không cần trải qua đào tạo công nghệ cao. Rất nhiều người nổi tiếng đã phải chịu ảnh hưởng bởi các đoạn video giả mạo họ do Deepfake làm ra xuất hiện tràn lan.
 


3. Deepfake – Giả mạo và tống tiền

Vẫn chưa dừng lại ở việc sử dụng Deepfake để tung các loạt tin tức giả về chính trị, hay trả thù cá nhân. Các đối tượng lừa đảo còn áp dụng công nghệ này để tống tiền, chiếm đoạt tài sản.

Tổng Giám đốc điều hành của một công ty năng lượng bị lừa hơn 200.000 USD chỉ bằng giọng nói Deepfake của người đứng đầu công ty đó với yêu cầu chuyển tiền khẩn cấp. Sự giả mạo quá thuyết phục khiến CEO không kịp nghi ngờ và không nghĩ đến việc kiểm tra chéo, tiền không được chuyển đến trụ sở chính mà đến một tài khoản ngân hàng bên thứ ba. CEO chỉ trở nên nghi ngờ khi “sếp” của anh ta yêu cầu thêm một đợt chuyển tiền khác. Kẻ giả mạo đã bị phát hiện, nhưng đã quá muộn để lấy lại số tiền vừa chuyển trước đó.

Ở Pháp, một người có tên Gilbert Chikli đã thực hiện hành vi mạo danh, cùng với việc sao chép tỉ mỉ văn phòng của Bộ trưởng Ngoại giao Jean-Yves Le Drian và đồ đạc trong đó, để lừa đảo các giám đốc điều hành cấp cao hàng triệu Euro. Kẻ lừa đảo Gilbert Chikli sau đó đã bị cáo buộc cải trang thành Bộ trưởng để yêu cầu các cá nhân giàu có và giám đốc điều hành công ty đưa tiền chuộc nhằm giải thoát các con tin người Pháp ở Syria, hắn ta đã phải hầu tòa cho hành vi của mình.

Tống tiền bằng các video khiêu dâm là một viễn cảnh mà dường như ai cũng có thể nghĩ đến khi Deepfake được ra đời. Cụ thể, công cụ này đã được sử dụng để tống tiền các nữ phóng viên và nhà báo, trường hợp của Rana Ayyub ở Ấn Độ, nữ phóng viên này đã bị ghép mặt vào các video khiêu dâm, sau đó kẻ gian đã sử dụng các video giả này để tống tiền cô.

Công nghệ ngày càng phát triển và việc tiếp cận Deepfake trở nên đơn giản và chi phí thực hiện ngày càng rẻ hơn, khiến mức độ nguy hiểm tăng lên mỗi ngày. Nếu chúng ta không được trang bị đủ kiến thức và thông tin thì sẽ rất khó để nhận ra Deepfake.

4. Deepfake – Hình thức lừa đảo nguy hiểm tiềm ẩn trong tương lai

Những tác hại tiềm ẩn của công nghệ Deepfake là vô cùng đáng lo ngại và các nhà nghiên cứu trong lĩnh vực này thường bị chỉ trích vì đã không xem xét thành quả nghiên cứu của họ sẽ bị lạm dụng. Để trấn an dư luận, các nhà nghiên cứu lĩnh vực Deepfake đã nỗ lực đưa ra các công cụ phát hiện Deepfake có độ chính xác cao, một công cụ mới đây có tỉ lệ phát hiện đúng lên tới hơn 90%.

Công cụ này bao gồm một thuật toán có khả năng phát hiện các yếu tố chỉnh sửa bằng AI trong video của các chính trị gia nổi tiếng như Donald Trump và Elizabeth Warren, bằng cách theo dõi các cử động khuôn mặt nhỏ nhất mang tính đặc trưng của mỗi cá nhân mà phần mềm chỉnh sửa không nắm bắt được.

Theo các chuyên gia, những phần mềm và công cụ có thể phát hiện ra các video bị chỉnh sửa sẽ chỉ khắc phục được một phần rất nhỏ vấn đề này. Chính những tác giả của công cụ chống Deepfake cũng cho rằng thành quả của họ sẽ trở nên vô ích.

Trong báo cáo của mình, nhóm tác giả này nhận định công nghệ Deepfake và chống Deepfake đang phát triển theo hướng không khác gì mối quan hệ giữa virus và các phần mềm chống virus. Bất cứ lỗi hay điểm yếu nào được phát hiện có thể giúp việc chống virus hiệu quả hơn, những phiên bản virus sau sẽ “vá” được những lỗi này và còn trở nên tinh vi hơn trước. Như trong trường hợp Deepfake, những phiên bản đầu tiên có thể khiến gương mặt bị chỉnh sửa của nhân vật luôn trong trạng thái mở mắt, hoặc khuôn miệng lúc phát âm không hề tự nhiên. Những phiên bản sau đã nâng cấp và cải thiện những yếu tố này rõ rệt, đến mức khó có thể nhận ra sự khác biệt bằng mắt thường giữa bản gốc và bản chỉnh sửa.

Bên cạnh đó, việc phát triển công nghệ có thể phát hiện ra Deepfake tuy rất quan trọng, nhưng thách thức lớn hơn là làm cho các công nghệ này thực sự được áp dụng rộng rãi và trở nên hữu ích. Các nền tảng mạng xã hội như Facebook, Twitter hay Youtube vẫn chưa xác định rõ ràng chính sách của họ đối với Deepfake. Những nhà quản lí các nền tảng này từ chối xóa hoặc thậm chí “ngó lơ” những video có yếu tố bị chỉnh sửa ngay cả khi có phản hồi chính thức về nội dung bị giả mạo.

Một đặc điểm của thời đại truyền thông trực tuyến là hình ảnh chất lượng có thể rất thấp và không cần ngữ cảnh cụ thể nhưng vẫn tiếp cận được với người xem. Giống như tin tức giả, rất nhiều nội dung thông tin giả mạo có thể dễ dàng bị lật tẩy chỉ với một vài phút tra cứu trên Google, nhưng điều đó không ngăn chặn sự lan truyền của chúng. Deepfake cũng vậy, các thành phẩm của công nghệ này không cần hoàn hảo từng chi tiết và vẫn có rất nhiều người đón nhận.

Không thể phủ nhận công nghệ Deepfake cũng có nhiều tác dụng, đặc biệt là trong ngành công nghiệp phim ảnh và truyền hình. Deepfake cho phép các nhà làm phim sửa các lỗi sai mà không cần tốn tiền và thời gian quay lại. Hay nó cũng giúp tạo ra các bản lồng tiếng thống nhất, trơn tru trong các ngôn ngữ khác nhau. Song, những lợi ích này có vẻ nhỏ bé hơn rất nhiều so với những thiệt hại tiềm ẩn mà Deepfake có thể dẫn tới.

Có đến hơn 90% các video Deepfake được tạo ra phục vụ các mục đích không hợp pháp, con số này đang báo động cho chúng ta về một viễn cảnh chẳng mấy tốt đẹp. Công nghệ ngày càng phát triển và việc tiếp cận Deepfake ngày càng trở nên đơn giản và tốn ít chi phí hơn, vì vậy trong tương lai, các luồng thông tin giả, những chiêu trò lừa đảo… áp dụng Deepfake rất có thể sẽ tràn lan trên môi trường Internet ngày càng nhiều.

5. Cách bảo vệ trước Deepfake

Trước những chiêu trò lừa đảo ngày một trở nên tinh vi hơn và không phải người dùng nào cũng có đủ kiến thức về công nghệ thông tin để có thể tự mình nhận ra những video, âm thanh giả tạo bởi AI. Chính vì vậy, phần lớn các chuyên gia về bảo mật đều đưa ra những lời khuyên nhằm phòng tránh trước các tính huống xấu có thể xảy ra, đặc biệt là việc nâng cao bảo mật các tài khoản trực tuyến.

Tin tưởng nhưng vẫn phải xác minh: Nếu nhận được một đoạn tin nhắn thoại đặc biệt là các tin nhắn hướng đến mục đích vay tiền hoặc mượn tài sản cá nhân của bạn, dù cho giọng nói nghe rất quen thuộc và cực kì giống thật, tốt nhất bạn vẫn nên gọi lại bằng số điện thoại mà bạn biết là chính xác để xác minh rằng đồng nghiệp, người thân đó của bạn đã thực sự gửi yêu cầu bằng tin nhắn thoại.

Đừng vội truy cập bất kì đường link nào: Khi được người thân gửi cho một đường link với những cấu trúc lạ, đừng vội vàng nhấp vào đường link/nút đó. Rất có thể đó là một cái bẫy được đưa ra để kẻ lừa đảo có thể chiếm đoạt tài khoản trực tuyến của bạn. Hãy tìm cách xác minh lại với người đã gửi tin nhắn cho bạn.

Hãy chú ý vào những điều nhỏ nhất: Nếu nhận được một cuộc gọi chuyển tiền hoặc video call với nội dung chuyển tiền, dù là người thân thiết, bạn vẫn hãy xem kĩ số điện thoại, email hoặc tài khoản có trùng hợp với người đang thực hiện yêu cầu hay không. Thông thường, các đối tượng sẽ yêu cầu chuyển tiền sang một tài khoản bên thứ ba hoặc sang một tài khoản có tên gần tương tự.

Hạn chế quyền truy cập vào giọng nói và hình ảnh của bạn: Như chúng ta đã biết, để có thể tạo ra hình ảnh và âm thanh giả những kẻ lừa đảo sẽ cần các bản ghi âm, hình ảnh hoặc cảnh quay của bạn để tạo ra những sản phẩm giả. Để ngăn chặn việc dữ liệu hình ảnh, âm thanh của bạn bị sao chép, hãy hạn chế sự hiện diện của bạn trên mạng xã hội hoặc đặt tài khoản của bạn ở chế độ riêng tư, chỉ chấp nhận yêu cầu từ những người bạn tin tưởng.

Không những vậy, một số các chuyên trang về bảo mật còn đưa ra lời khuyên để có thể phát hiện Deepfake ngay tức thì như sau:

– Chuyển động giật cục, như một đoạn video lỗi.

– Ánh sáng bị thay đổi liên tục từ khung hình này sang khung hình tiếp theo.

– Thay đổi tông màu liên tục.

– Video có những sự nhấp nháy lạ thường.

– Khẩu hình miệng không đồng bộ với lời nói.

– Hiện lên các đồ vật kĩ thuật số trong hình ảnh.

– Âm thanh hoặc video chất lượng thấp.

– Nhân vật nói liên tục, không chớp mắt.

Hãy thật cẩn trọng khi sử dụng Internet, đặc biệt là với các nền tảng mạng xã hội, nơi mà chúng ta luôn thoải mái chia sẻ rất nhiều thông tin cá nhân khiến cho các đối tượng xấu dễ dàng lợi dụng để thực hiện hành vi lừa đảo.

Tài liệu tham khảo:

1. https://cand.com.vn/
2. https://vtv.vn/
3. Nguồn: Internet.

Bài Viết Mới Nhất

Đáng Xem

LEAVE A REPLY

Please enter your comment!
Please enter your name here