Thủ đoạn lừa đảo tinh vi bằng “bóng ma Deepfake”

Lợi dụng thời điểm nhiều người đang gặp khó khăn về tài chính, việc làm, các đối tượng lợi dụng triệt để sự phát triển của khoa học công nghệ để trục lợi. Lơ là trước những cảnh báo, nhiều người bị “sập bẫy”, mất tiền cho kẻ gian.

Một trọng những thủ đoạn mới xuất hiện gần đây là tội phạm mạng dùng thủ đoạn ứng dụng công nghệ AI, Deepfake giả giọng nói, giả hình ảnh, video để lừa đảo. Thậm chí, các đối tượng lừa đảo lập ra những trang web giả mạo, sử dụng logo, hình ảnh và thông tin liên quan rất giống với trang chính thức của doanh nghiệp để tuyển dụng ứng viên, yêu cầu chuyển tiền,...

Lừa đảo bằng thủ đoạn công nghệ mới

Theo đó, các đối tượng gọi điện cho những người đang tìm việc, giới thiệu việc làm với lời hứa phỏng vấn, cơ hội bố trí việc làm nhanh... Với thủ đoạn này, ứng viên bị đánh lừa rằng họ đang được ứng tuyển vào công ty lớn. Khi truy cập vào các trang này để tìm hiểu, ứng viên sẽ được yêu cầu cung cấp thông tin cá nhân quan trọng, thậm chí thực hiện các giao dịch chuyển tiền để làm thủ tục tuyển dụng.

Tinh vi hơn, các đối tượng lừa đảo sử dụng công nghệ Deepfake làm giả cuộc gọi video hoặc bắt chước giọng nói của người đại diện tập đoàn để thực hiện cuộc phỏng vấn giả. Điển hình là vụ việc mới đây, Công an TP Đà Nẵng đã nhận được công văn của Cty CP Tập đoàn Mặt Trời (Sun Group) phản ánh về việc bị mạo danh để lừa đảo, thu lợi bất chính bằng thủ đoạn mời chào tuyển dụng bằng hình thức này. Tương tự, Công ty CP Tập đoàn Công nghệ CMC cũng bị giả mạo tuyển dụng để lừa đảo.

Theo các hãng bảo mật, Deepfake là một từ ghép của “deep” trong “deep learning” (học sâu) và “fake” (giả mạo). Deep learning là dùng phương pháp AI tiên tiến ứng dụng nhiều thuật toán nhằm tổng hợp dần các tính năng cao cấp từ dữ liệu đầu vào. Từ đó công nghệ này có khả năng tổng hợp, học hỏi từ những dữ liệu mà người dùng đưa vào như khuôn mặt con người, chuyển động vật lý và giọng nói. Deepfake có thể gán khuôn mặt của người này sang người khác trong video với độ chân thực cao.

Chuyên gia Phòng An ninh mạng và phòng chống tội phạm sử dụng công nghệ cao Công an TP Đà Nẵng nhận định, đây là công nghệ ứng dụng trí tuệ nhân tạo (AI), tạo ra các sản phẩm công nghệ âm thanh, hình ảnh và video làm giả đối tượng ngoài đời thực với độ chính xác rất cao. Dựa trên tệp tin hình ảnh khuôn mặt, giọng nói của một người ngoài đời thực, Deepfake sẽ sử dụng thuật toán để tái tạo lại khuôn mặt và giọng nói phù hợp với nét mặt, biểu cảm của một người khác, sau đó tạo ra video giả mạo khiến nhiều người mắc lừa. Hiện nay, deepfake đang trở thành nỗi ám ảnh, là "bóng ma" trong thế giới Internet được tội phạm dùng để lừa đảo...

Trong quá trình này, kẻ xấu yêu cầu ứng viên cung cấp thông tin tài khoản ngân hàng hoặc thực hiện các giao dịch chuyển tiền tạm ứng một khoản chi phí để phục vụ tuyển dụng.

Chuyên gia bảo mật Vũ Ngọc Sơn, Giám đốc Kỹ thuật Công ty NCS cho biết, Deepfake ban đầu được sử dụng trong các ứng dụng “hoán đổi khuôn mặt” giúp người sử dụng dễ dàng thay khuôn mặt, giọng nói của mình vào những nhân vật trong các bộ phim nổi tiếng, rồi đến trào lưu chế ảnh, lồng tiếng hài hước cho các clip từng gây sốt thời gian trước.

“Gần đây, những kẻ lừa đảo đã lợi dụng ứng dụng Deepfake để làm ra các clip có nội dung lừa đảo, mạo danh. Nhiều người đã bị mất tiền do tưởng là người thân, đồng nghiệp, lãnh đạo gọi cho mình yêu cầu chuyển một khoản tiền cho họ”, ông Sơn cho biết.

Ngoài việc sử dụng công nghệ cao như Deepfake, thời gian gần đây cũng xuất hiện hình thức lừa đảo “việc nhẹ lương cao”, làm nhiệm vụ kiếm hoa hồng… khiến nhiều người mắc bẫy. Theo đó, nhóm lừa đảo đăng quảng cáo trên các trang mạng xã hội với nội dung "tuyển cộng tác viên mua bán hàng trên các sàn thương mại điện tử Shopee, Lazada, Tiki…" với hoa hồng từ 10 - 20% trên giá trị đơn hàng đã thu hút nhiều người tham gia. Các đối tượng gửi cho cộng tác viên một đường link sản phẩm thật trên các sàn thương mại điện tử như Sendo, Shoppe, Lazada… yêu cầu tạo đơn hàng và thanh toán, sau đó "hệ thống" sẽ hoàn tiền, kèm theo hoa hồng.

Nhằm tạo lòng tin và đánh vào lòng tham của bị hại, thời gian đầu, những đơn hàng giá trị nhỏ đều được thanh toán đầy đủ vốn kèm hoa hồng. Thấy việc kiếm tiền quá dễ dàng, bị hại sẽ đặt hàng số lượng nhiều hơn với số tiền lớn hơn. Nhưng khi nhận được tiền, các đối tượng lừa đảo đưa ra nhiều lý do như cú pháp soạn tin bị sai, hệ thống bị lỗi… để không trả tiền. Khi đó, bị hại muốn nhận lại tiền thì chuyển khoản thêm tiền cho đơn hàng, nếu không sẽ bị mất toàn bộ tiền trước đó.

Cảnh báo từ cơ quan chức năng

Phòng CSHS, Công an TP Hà Nội cho biết, thủ đoạn của các đối tượng lừa đảo là lấy những video của người dùng đã đưa lên các nền tảng mạng xã hội, từ đó cắt ghép hoặc dùng công nghệ deepfake, AI để khi thực hiện hành vi sẽ phát lại video lừa đảo. Tuy nhiên, do cắt ghép và chỉnh sửa và dù đã được công nghệ hỗ trợ, song hầu hết những video này đều có chất lượng khá thấp, mờ ảo, chập chờn như đang ở nơi sóng yếu. Đó cũng là một trong những dấu hiệu để bị hại nhận biết, cảnh giác. Dẫu vậy, không phải ai cũng có đủ thời gian nhận biết, sự tỉnh táo để xác định đó chỉ là “hàng fake”.

Để chủ động phòng ngừa tội phạm, mới đây, Công an TP Hà Nội đã đề nghị người dân cảnh giác và tuyên truyền đến người thân, bạn bè về thủ đoạn trên, tránh mắc bẫy của đối tượng xấu. Khi làm cộng tác viên cho các công ty, doanh nghiệp, đơn vị cung ứng hàng hóa, dịch vụ, người dân cần kiểm tra rõ các thông tin về hàng hóa và đơn vị cung cấp thông qua nhiều nguồn khác nhau để kiểm chứng tính chính xác.

Nếu phát hiện ra trường hợp lừa đảo, người dân cần báo ngay cho cơ quan Công an để nhanh chóng xác minh, ngăn chặn và xử lý các đối tượng vi phạm theo quy định của pháp luật.

Phòng An ninh mạng và phòng chống tội phạm sử dụng công nghệ cao Công an TP Đà Nẵng khuyến cáo, doanh nghiệp cần cung cấp thông tin về các vị trí tuyển dụng trên trang web và các kênh thông tin chính thức để ngăn chặn việc đăng tin giả mạo. Cùng với đó là tăng cường hợp tác với cơ quan chức năng để xử lý các trường hợp cố tình lợi dụng hình ảnh thương hiệu cũng như chia sẻ thông tin để cảnh báo cho nhân dân.

Công an khuyến cáo người lao động có nhu cầu về việc làm, có ý định tham gia tuyển dụng, nên kiểm tra kỹ các thông tin và liên hệ trực tiếp với doanh nghiệp bằng kênh liên lạc chính thức để xác nhận thông tin tuyển dụng trước khi tiến hành cung cấp thông tin cá nhân của mình. Tuyệt đối không làm theo hướng dẫn như bấm phím số trên máy điện thoại, xác minh số điện thoại, ấn vào những đường link giả mạo...

Giả mạo thông tin tuyển dụng của những doanh nghiệp, tập đoàn lớn để lừa đảo.

Giả mạo thông tin tuyển dụng của những doanh nghiệp, tập đoàn lớn để lừa đảo.

Các sàn thương mại điện tử thường bị các đối tượng lừa đảo lợi dụng

Các sàn thương mại điện tử thường bị các đối tượng lừa đảo lợi dụng

Theo Bộ Thông tin và Truyền thông, đối với các cuộc gọi deepfake như hiện nay, bằng mắt thường vẫn có thể có một số dấu hiệu để nhận biết như:

- Thời gian gọi thường rất ngắn, chỉ vài giây.

- Khuôn mặt trên khuôn hình thiếu tính cảm xúc và khá “trơ” khi nói, tư thế trông lúng túng, không tự nhiên.

- Hướng đầu và cơ thể của họ trong video không nhất quán với nhau.

- Có tiếng ồn hoặc tiếng vọng trong cuộc gọi.

- Tài khoản chuyển tiền không phải của người đang thực hiện cuộc gọi.

- Kẻ gian sẽ ngắt giữa chừng, nói là mất sóng, sóng yếu hoặc có việc bận.

Theo Đời sống
Nokia 3210 sẽ được "hồi sinh" sau 25 năm?

Nokia 3210 sẽ được "hồi sinh" sau 25 năm?

Sau thành công với Nokia 6310, HMD Global đang chuẩn bị "hồi sinh" chiếc Nokia 3210 huyền thoại từ năm 1999 với thiết kế hiện đại nhưng vẫn giữ được đường nét hoài cổ, cùng logo Nokia kinh điển được in ở mặt lưng.
back to top