Theo các chuyên gia bảo mật, lừa đảo sử
dụng công nghệ Deepfake rất nguy hiểm, tuy nhiên có những cách để người dùng nhận biết video sử
dụng công nghệ ứng
dụng trí tuệ nhân tạo này, từ đó tránh bị các đối tượng xấu lừa.
Nguy cơ xuất hiện l&
agrave;n sóng lừa đảo dùng c&oc
irc;ng nghệ Deepfake
Trong cảnh báo phát ra ng&
agrave;y 24/3 vừa qua, C&oc
irc;ng an tỉnh Tuyên Quang cho hay, gần đây, trên kh&oc
irc;ng gian mạng đã xuất hiện phương thức lừa đảo chiếm đoạt t&
agrave;i sản rất tinh vi. Đó l&
agrave; các đối tượng lừa đảo sử
dụng c&oc
irc;ng nghệ Deepfake (c&oc
irc;ng nghệ ứng
dụng trí tuệ nhân tạo - AI tạo ra các sản phẩm c&oc
irc;ng nghệ âm thanh, hình ảnh v&
agrave; video l&
agrave;m giả đối tượng ngo&
agrave;i đời thực với độ chính xác rất cao) để thực hiện cuộc gọi video giả mạo người thân vay tiền, giả l&
agrave;m con cái đang du học nước ngo&
agrave;i gọi điện cho bố mẹ nhờ chuyển tiền đóng học phí hay có thể giả tạo ra những tình huống khẩn cấp như người thân bị tai nạn cần tiền gấp để cấp cứu…
Những ng&
agrave;y gần đây, C&oc
irc;ng an một số địa phương khác như H&
agrave; Nội, Thái Nguyên cũng đã tiếp tục có cảnh báo về chiêu thức lừa đảo chiếm đoạt t&
agrave;i sản trên kh&oc
irc;ng gian mạng lợi
dụng c&oc
irc;ng nghệ Deepfake.
C&oc
irc;ng an một số tỉnh, th&
agrave;nh phố đã phát cảnh báo về hình thức lừa đảo sử
dụng c&oc
irc;ng nghệ Deepfake. (Ảnh minh họa: Internet)
Trong chia sẻ tại hội thảo chủ đề “An ninh mạng trên kh&oc
irc;ng gian số - Xu hướng v&
agrave; cơ hội” được Học viện C&oc
irc;ng nghệ Bưu chính Viễn th&oc
irc;ng (PTIT) tổ chức ng&
agrave;y 27/3, chuyên gia Ngô Minh Hiếu, đồng sáng lập dự án ChongLuaDao.vn v&
agrave; Threat Hunter, Trung tâm Giám sát an to&
agrave;n kh&oc
irc;ng gian mạng quốc gia cho biết, video Deepfake mới xuất hiện tại Việt Nam nhưng trên thực tế chiêu thức lừa đảo, giả mạo sử
dụng c&oc
irc;ng nghệ ứng
dụng AI n&
agrave;y đã được các nhóm tội phạm quốc tế áp
dụng từ khoảng 2 – 3 năm gần đây.
Chuyên gia Ngô Minh Hiếu cũng phân tích, trên kh&oc
irc;ng gian mạng đang có nhiều c&oc
irc;ng cụ hỗ trợ các đối tượng tạo ra các video Deepfake. Tới đây, khi tội phạm mạng tại Việt Nam biết nhiều hơn các cách đánh cắp video v&
agrave; hình ảnh, cắt ghép sau đó dùng những c&oc
irc;ng cụ được hướng dẫn trên mạng để tạo Deepfake - thì lúc đó sẽ diễn ra một l&
agrave;n sóng lừa đảo thế hệ 4.0 khiến nhiều người lâu nay rất khó bị lừa cũng trở th&
agrave;nh nạn nhân.
“Những người tầm trung niên trở lên l&
agrave; đối tượng dễ bị lừa nhất vì họ thiếu nhận thức về an to&
agrave;n th&oc
irc;ng tin, c&oc
irc;ng nghệ v&
agrave; khó nhận biết kiểu lừa đảo tinh vi n&
agrave;y”, chuyên gia Ngô Minh Hiếu chia sẻ thêm.
Chuyên gia Ngô Minh Hiếu chia sẻ với các sinh viên PTIT về các hình thức lừa đảo, trong đó có lừa đảo sử
dụng Deepfake.
B&
agrave;n về vấn đề n&
agrave;y, Giám đốc Kỹ thuật C&oc
irc;ng ty NCS Vũ Ngọc Sơn cho hay, các ứng
dụng Deepfake đang ng&
agrave;y c&
agrave;ng phổ biến, thậm chí gây lo ngại về việc mất kiểm soát. Lúc đầu các ứng
dụng n&
agrave;y được tạo ra với mục đích “hoán đổi khuôn mặt” giúp người sử
dụng có thể dễ d&
agrave;ng thay khuôn mặt, giọng nói của mình v&
agrave;o những nhân vật trong các bộ phim nổi tiếng. Có thể coi l&
agrave; bước tiếp theo của tr&
agrave;o lưu chế ảnh, lồng tiếng h&
agrave;i hước cho clip từng gây sốt trong thời gian trước đây.
Tuy nhiên, những kẻ lừa đảo đã lợi
dụng các ứng
dụng Deepfake để l&
agrave;m ra các clip có nội dung lừa đảo, mạo danh. Nhiều người đã bị mất tiền do tưởng l&
agrave; người thân, đồng nghiệp, lãnh đạo gọi cho mình yêu cầu chuyển một khoản tiền cho họ. Việc c&oc
irc;ng nghệ n&
agrave;y lại được sử
dụng v&
agrave;o những mục đích xấu nhiều hơn, nên gần đây khi nhắc đến Deepfake l&
agrave; mọi người thường nghĩ đến c&oc
irc;ng cụ xấu.
Cách phòng tránh lừa đảo dùng c&oc
irc;ng nghệ Deepfake
Đề cập đến cách phòng tránh, chuyên gia Vũ Ngọc Sơn phân tích, do năng lực tính toán của các ứng
dụng Deepfake chưa thực sự trở nên ho&
agrave;n hảo nên các clip chế từ c&oc
irc;ng nghệ n&
agrave;y thường có dung lượng nhỏ, thời gian ngắn, chất lượng âm thanh, hình ảnh kh&oc
irc;ng cao. Dễ nhận thấy nhất l&
agrave; khuôn mặt khá cứng v&
agrave; ít cảm xúc hơn. Hình thể của nhân vật trong Deepfake cũng sẽ ít di chuyển hơn, đặc biệt l&
agrave; ít quay ngang ngửa mặt hoặc cúi mặt so với các clip th&oc
irc;ng thường, c&
agrave;ng kh&oc
irc;ng có các h&
agrave;nh động đưa tay dụi mặt hay che mặt vì AI sẽ xử lý lỗi khi khuôn mặt bị
che đi một phần. Do đó, nếu để ý kỹ có thể phát hiện ra được.
“Người dùng kh&oc
irc;ng nên tin v&
agrave;o các clip có thời lượng ngắn, chất lượng clip thấp, nhòe, kh&oc
irc;ng rõ, khuôn mặt ít biểu cảm, cơ thể ít di chuyển, khuôn mặt kh&oc
irc;ng quay ngang ngửa, giọng nói kh&oc
irc;ng trơn tru hoặc quá đều đều, kh&oc
irc;ng ngắt nghỉ”, chuyên gia Vũ Ngọc Sơn khuyến nghị.
Vị chuyên gia đến từ C&oc
irc;ng ty NCS cũng cho hay, điều quan trọng nhất l&
agrave; người dùng cần n&ac
irc;ng cao cảnh giác. Cụ thể l&
agrave;, kh&oc
irc;ng tin tưởng nếu nhận được các clip hoặc video call ngắn, chất lượng hình ảnh hoặc âm thanh kh&oc
irc;ng tốt; kiểm tra lại bằng cách gọi điện trực tiếp bằng điện thoại th&oc
irc;ng thường; yêu cầu người gọi đưa tay lên mặt hoặc quay trái, quay phải; trao đổi c&
agrave;ng nhiều c&
agrave;ng tốt với người gọi để đảm bảo cuộc gọi l&
agrave; thật chứ kh&oc
irc;ng phải l&
agrave; đang nói chuyện với một video được ghi hình sẵn. Đặc biệt l&
agrave;, người dùng kh&oc
irc;ng chuyển tiền, gửi th&oc
irc;ng tin v&
agrave;o các đị
a ch??, t&
agrave;i khoản lạ.
Đồng quan điểm, chuyên gia Ngô Minh Hiếu khuyến nghị, để tránh bị lừa thì tốt nhất l&
agrave; người dùng cần tỉnh táo, n&ac
irc;ng cao cảnh giác. khi có một ai đó trên mạng xã hội, trong danh sách bạn bè của mình m&
agrave; tự nhiên hỏi mượn tiền hay gửi link lạ thì kh&oc
irc;ng nên vội, m&
agrave; hãy bình tĩnh, kiểm chứng v&
agrave; nên xác thực lại.
“Người dùng có thể chủ động xác thực bằng cách gọi điện thoại trực tiếp hoặc facetime ít nhất trên 1 phút, sau đó giả vờ đặt ra những câu hỏi cá nhân m&
agrave; chỉ có bạn v&
agrave; người kia mới biết. Vì Deepfake sẽ kh&oc
irc;ng thể giả được một cuộc trò chuyện thật sự trong thời gian thực m&
agrave; có tính chuẩn xác cao”, chuyên gia Ngô Minh Hiếu đưa ra lời khuyên.
Chiêu lừa đảo “con đang cấp cứu”: Th&oc
irc;ng tin về học sinh lộ lọt từ đâu?
Theo các chuyên gia, hạn chế trong nhận thức đảm bảo an to&
agrave;n th&oc
irc;ng tin của phụ huynh v&
agrave; các trường l&
agrave; một trong những nguyên nhân dẫn đến lộ lọt th&oc
irc;ng tin về học sinh cho đối tượng xấu tận
dụng để lừa đảo.
Nh&
agrave; mạng nhắn tin có định danh để tránh khách h&
agrave;ng bị lừa đảo
Cục Viễn th&oc
irc;ng đề nghị nh&
agrave; mạng triển khai các biện pháp truyền th&oc
irc;ng qua nhắn tin th&oc
irc;ng báo đề nghị chuẩn hóa th&oc
irc;ng tin thuê bao phải có định danh, hoặc số điện thoại chăm sóc khách h&
agrave;ng để tránh việc bị mạo danh.
Tội phạm mạng lợi
dụng sự cả tin v&
agrave; lòng tham của con người để lừa đảo
Dù có khá nhiều biện pháp c&oc
irc;ng nghệ đã được thực hiện, tội phạm mạng vẫn lừa đảo th&
agrave;nh c&oc
irc;ng do sự cả tin v&
agrave; lòng tham của con người.
Nguồn bài viết : kết quả 1.nét