Deepfake lan tràn, xác thực sinh trắc học có đủ chống lừa đảo bằng AI?

Chỉ trong hai năm gần đây, chúng ta đã chứng kiến tràn lan những khuôn mặt giả, giọng nói tổng hợp và các cuộc gọi video hoàn toàn được dàn dựng nhằm lừa gạt người dân, doanh nghiệp và các tổ chức.

Deepfake - Ảnh 1.

Xác thực khuôn mặt đang được sử dụng rất phổ biến tại Việt Nam - Ảnh: QUANG ĐỊNH

Những gương mặt, giọng nói và thậm chí cả các cuộc gọi video trực tiếp... được làm giả một cách rất thuyết phục, có thể qua mặt các biện pháp an ninh truyền thống.
Ông MILKO RADOTIC (Phó chủ tịch phụ trách khu vực Châu Á - Thái Bình Dương của iProov)

Trí tuệ nhân tạo (AI) tạo sinh và deepfake không chỉ làm gia tăng thông tin sai lệch mà còn cả gian lận. Những công cụ này cho phép tội phạm tạo ra hàng nghìn danh tính giả một cách thuyết phục trên quy mô lớn, cho phép chúng thực hiện một chiêu lừa đảo nhiều lần.

Đó là nhận định của ông Milko Radotic, Phó chủ tịch phụ trách khu vực châu Á - Thái Bình Dương của iProov - một trong những nhà cung cấp công nghệ xác thực sinh trắc học hàng đầu thế giới, trong cuộc trao đổi với Tuổi Trẻ.

* Với sự phát triển của AI và ứng dụng của nó, theo ông, thời gian tới người dùng Việt sẽ phải đối mặt với những mối đe dọa nào là đáng sợ nhất trên không gian mạng?

- Một trong những rủi ro nghiêm trọng nhất mà Việt Nam phải đối mặt trong tương lai gần là gian lận danh tính tổng hợp. Không giống với các vụ đánh cắp danh tính truyền thống, nơi tội phạm lấy thông tin của một người có thật, những kẻ lừa đảo giờ đây sử dụng các mảnh dữ liệu, như tên, địa chỉ hoặc số CMND/CCCD, để xây dựng một danh tính hoàn toàn mới, không hề tồn tại.

Những danh tính giả này sau đó có thể được sử dụng để mở tài khoản, đăng ký vay tín dụng, hoặc chuyển tiền qua biên giới. Điều khiến mối đe dọa này trở nên đáng báo động là việc phát hiện ra nó vô cùng khó khăn. Vì danh tính này "một phần thật" và "một phần giả", nó có thể vượt qua nhiều khâu kiểm tra mà các ngân hàng và nền tảng đang sử dụng.

Tiếp theo là sự trỗi dậy của các công nghệ deepfake tiên tiến. Đây là những gương mặt, giọng nói và thậm chí cả các cuộc gọi video trực tiếp được làm giả một cách rất thuyết phục, có thể qua mặt các biện pháp an ninh truyền thống.

Deepfake - Ảnh 2.

Ông Milko Radotic, Phó chủ tịch phụ trách khu vực châu Á - Thái Bình Dương của iProov

* Liệu người dùng có thể phân biệt được một nội dung (ảnh, video, bài viết...) là do AI tạo ra hay không?

- Thực tế là hầu hết mọi người đều không thể. Nghiên cứu của chúng tôi tại iProov cho thấy 99,9% người tham gia đã không nhận diện được deepfake. 

Ngay cả các công cụ phát hiện tiên tiến cũng gặp khó khăn. Khi được thử nghiệm trong môi trường thực tế, độ chính xác của các công cụ tự động phát hiện deepfake giảm gần một nửa so với điều kiện phòng thí nghiệm.

Ví dụ, một công cụ có thể phát hiện được một hình ảnh do AI tạo ra nhưng lại bỏ sót hoàn toàn một video hoán đổi khuôn mặt. Tương tự, các hệ thống được huấn luyện trên những nhân vật công chúng nổi tiếng có thể hiệu quả với chính trị gia hay người nổi tiếng, nhưng lại gặp khó khăn với những người bình thường không có nhiều dấu vết số.

Đây thực sự là một cuộc chạy đua vũ trang bởi ngay khi việc phát hiện được cải thiện, những kẻ lừa đảo sẽ ngay lập tức thích nghi.

* Làm thế nào để có thể nâng cao kỹ năng nhận diện và phòng vệ trước hiểm họa từ AI tạo sinh và deepfake, thưa ông?

- Đối với người dùng Việt Nam, cách phòng vệ tốt nhất là có một thái độ hoài nghi lành mạnh. Nếu bạn cảm thấy có điều gì đó không ổn, ngay cả khi đang gọi video với sếp, ngân hàng hay người thân, hãy tạm dừng và xác minh lại qua một kênh đáng tin cậy khác. Đừng chỉ dựa vào những gì bạn nhìn hoặc nghe thấy trên màn hình.

Không nên đặt nặng trách nhiệm lên vai người dùng, mà phải nằm ở cấp độ tổ chức để có các biện pháp bảo vệ mạnh mẽ hơn. Ví dụ, các ngân hàng và nền tảng đang chuyển sang sử dụng công nghệ xác thực sinh trắc học với tính năng phát hiện sự sống để xác minh xem một người có phải là người thật, đúng người và đang hiện diện trực tiếp tại thời điểm đó hay không.

Đó là các biện pháp bảo vệ giúp ngăn chặn lừa đảo bằng deepfake thành công trên quy mô lớn.

* Việc áp dụng xác thực sinh trắc học đã được Việt Nam áp dụng rộng rãi cũng là một giải pháp phòng vệ hiệu quả, thưa ông?

- Có thể nói, Việt Nam khá tiên tiến trong việc áp dụng xác thực sinh trắc học, với hơn 120 triệu hồ sơ cá nhân và hơn 1,2 triệu tài khoản khách hàng doanh nghiệp đã được xác minh. Các ngân hàng cũng đang ghi nhận mức giảm đáng kể về gian lận. Tốc độ phát triển này thực sự rất ấn tượng. Tuy nhiên, vẫn còn những thách thức.

Với tình trạng gian lận do AI thúc đẩy ngày càng tinh vi hơn, công nghệ cũng phải liên tục phát triển để luôn đi trước một bước. Sinh trắc học, đặc biệt là xác minh khuôn mặt, có một thế mạnh độc đáo: nó kết hợp được bảo mật mạnh mẽ với trải nghiệm sử dụng mượt mà. Sự cân bằng này rất quan trọng để xây dựng lòng tin người dùng và thúc đẩy việc áp dụng.

* Theo ông, cần có chiến lược gì để nâng cao nhận thức cộng đồng cũng như mở rộng việc ứng dụng xác thực sinh trắc học trong người dùng?

- Tại Việt Nam, mức độ tin tưởng và chấp nhận xác thực sinh trắc học đang tăng lên nhanh chóng. Hầu hết mọi người đã mở khóa điện thoại bằng khuôn mặt hoặc vân tay, vì vậy, việc mở rộng thói quen đó sang lĩnh vực ngân hàng là điều tự nhiên.

Thêm vào đó là sự phát triển nhanh chóng của ngân hàng số và động thái thúc đẩy mạnh mẽ từ Chính phủ, chúng tôi nhận thấy mức độ thoải mái của người dùng đang tăng nhanh hơn so với nhiều thị trường lân cận. 

Tuy nhiên, thách thức hiện tại là quy mô. Xác thực sinh trắc học không chỉ phải sử dụng được cho những người am hiểu công nghệ, mà còn phải dành cho cả thế hệ người lớn tuổi, những người có trình độ kỹ thuật số thấp hơn và những người dùng điện thoại thông minh cơ bản.

Để xây dựng lòng tin rộng rãi hơn, có ba chiến lược nổi bật. Trước hết, các hệ thống sinh trắc học cần hoạt động trên mọi thiết bị và mọi đối tượng người dùng, với thiết kế toàn diện cho cả những người ở các độ tuổi và khả năng khác nhau. Quá trình xác thực phải đơn giản, nhanh chóng và trực quan, không gây ra bất kỳ trở ngại nào. 

Các ngân hàng và cơ quan quản lý cần cho người dùng thấy những lợi ích thực sự, từ việc đăng nhập nhanh hơn đến việc giảm thiểu gian lận đã được chứng minh, đồng thời sử dụng các ví dụ gần gũi với đời sống hằng ngày.

Mục tiêu là làm cho sinh trắc học không còn là một tính năng bảo mật bổ sung, mà trở thành phương thức tương tác trực tuyến tự nhiên và đáng tin cậy nhất. Khi điều đó xảy ra, việc áp dụng sẽ mở rộng một cách tự nhiên.

Hậu quả rất nghiêm trọng

Theo Hiệp hội Kế toán pháp lý toàn cầu, các sự cố deepfake trên toàn cầu đã tăng gấp 10 lần từ năm 2023 - 2025, tương ứng với mức tăng hơn 900% trong hai năm. Hậu quả của chúng rất nghiêm trọng. Deloitte ước tính rằng gian lận do AI thúc đẩy sẽ gây thiệt hại cho các ngân hàng và khách hàng của họ tới 40 tỉ USD vào năm 2027.

Tại Việt Nam, hiểm họa của AI tạo sinh và công nghệ deepfake ngày càng tăng và rõ ràng hơn. Trong năm 2024, Cục An toàn thông tin (Bộ TT-TT trước đây) đã ghi nhận hơn 220.000 báo cáo về lừa đảo trực tuyến và gian lận, phần lớn liên quan đến lĩnh vực tài chính và ngân hàng. Trong thực tế, ngày càng có nhiều người tiêu dùng ưu tiên giao dịch kỹ thuật số, Việt Nam trở thành một mục tiêu hấp dẫn.

Chỉ một vụ lừa đảo cũng có thể gây hậu quả nghiêm trọng, xóa sạch tiền tiết kiệm của cả gia đình hoặc làm suy yếu niềm tin vào cơ sở hạ tầng ngân hàng số. Đó là lý do tại sao niềm tin đóng vai trò sống còn đối với sự phát triển tài chính toàn diện.

Phải sử dụng công nghệ xác thực sinh trắc học tiên tiến

Theo ông Milko Radotic, danh tính bị đánh cắp, tài khoản bị rút cạn, bị truy cập trái phép vào dữ liệu nhạy cảm và lừa đảo trên quy mô lớn có thể làm xói mòn niềm tin của công chúng vào hệ thống tài chính số. Mà niềm tin lại là nền tảng của sự phát triển tài chính toàn diện và tăng trưởng số.

Đây là lý do tại sao các ngân hàng và nền tảng tại Việt Nam cần đi trước một bước. Các mật khẩu cơ bản hoặc mã OTP đơn giản là không còn đủ hiệu quả nữa. Cần phải chuyển sang sử dụng công nghệ xác thực sinh trắc học tiên tiến với tính năng phát hiện sự sống theo thời gian thực để xác minh xem một người có phải là người thật, đúng người và đang hiện diện tại thời điểm đó hay không.

"Biện pháp này cùng kết hợp với việc nâng cấp bảo mật liên tục, giúp đi trước một bước so với các mối đe dọa đang phát triển nhanh chóng", ông Milko Radotic nói.

Deepfake và hiểm họa khó lường của AI - Ảnh 3.Lừa đảo và deepfake nguy hiểm khôn lường nhờ AI

Cứ 5 phút sẽ có một cuộc tấn công deepfake xảy ra trong năm 2025. Chỉ với vài giây, AI có thể tạo ra các bản audio y hệt giọng nói của bạn bè hoặc người thân, hay các video giả mạo chỉ từ một bức ảnh duy nhất.

Trở thành người đầu tiên tặng sao cho bài viết 0 0 0
Bình luận (0)
thông tin tài khoản
Được quan tâm nhất Mới nhất Tặng sao cho thành viên

    Tuổi Trẻ Online Newsletters

    Đăng ký ngay để nhận gói tin tức mới

    Tuổi Trẻ Online sẽ gởi đến bạn những tin tức nổi bật nhất