MBS cảnh báo “DeepFake” - Hình thức lừa đảo mới

Cập nhật: 15:25 | 10/05/2023 Theo dõi KTCK trên

Công ty CP chứng khoán MB (MBS) lưu ý một số thông tin liên quan đến "Deepfake" nhằm khuyến cáo Quý Khách hàng nâng cao cảnh giác, tăng cường khả năng nhận diện cũng như hạn chế các rủi ro có thể phát sinh.

Hiện nay, tình hình tội phạm lừa đảo chiếm đoạt tài sản trên không gian mạng diễn biến phức tạp, các đối tượng lừa đảo bằng nhiều thủ đoạn khác nhau và ngày càng tinh vi hơn. Một trong những thủ đoạn đang được nhắc đến nhiều hiện nay là công nghệ Deepfake làm giả cuộc gọi video nhằm chiếm đoạt tài sản.

MBS cảnh báo “DeepFake” - Hình thức lừa đảo mới

Công ty CP chứng khoán MB (MBS) lưu ý một số thông tin liên quan đến Deepfake nhằm khuyến cáo Quý Khách hàng nâng cao cảnh giác, tăng cường khả năng nhận diện cũng như hạn chế các rủi ro có thể phát sinh.

Deepfake là gì ?

Deepfake là sự kết hợp giữa deep learning (học sâu) và fake (giả). Công nghệ này sử dụng trí tuệ nhân tạo (AI) để làm những video hoặc hình ảnh giả, sao chép ảnh chân dung tạo ra các đoạn video giả người thân, bạn bè để thực hiện các cuộc gọi lừa đảo trực tuyến. Phần lớn hình thức lừa đảo trực tuyến này nhắm tới tài chính.

Deepfake đang là một mối đe dọa bởi nó có thể được sử dụng để lừa đảo trực tuyến cũng như tấn công chính trị, tạo tin tức giả mạo, phá hoại danh tiếng của người khác.

MBS cảnh báo “DeepFake” - Hình thức lừa đảo mới

Deepfake hoạt động như thế nào?

Dựa trên tệp tin hình ảnh khuôn mặt, giọng nói của một người ngoài đời thực, Deepfake sẽ sử dụng thuật toán để tái tạo lại khuôn mặt và giọng nói phù hợp với nét mặt, biểu cảm của một người khác, sau đó tạo ra video giả mạo hoàn toàn đối tượng ngoài đời thực.

Thông qua mạng internet, các đối tượng thu thập hình ảnh, giọng nói của người dùng trên mạng xã hội, sử dụng công nghệ Deepfake tạo ảnh động, video giả mạo người dùng đang nói chuyện trực tuyến với cùng khuôn mặt, âm điệu giọng nói và cách xưng hô.

Rủi ro

Thông qua Deepfake, đối tượng giả mạo sẽ mạo danh chính chủ TK (thông qua giọng nói, hình ảnh video) để thực hiện các hành vi lừa đảo, chiếm quyền sử dụng tài khoản (TK Ngân hàng, TK chứng khoán,…) nhằm chiếm đoạt tài sản của chính chủ.

Một số cách thức nhận biệt Deepfake (bao gồm nhưng không giới hạn)

Video với âm thanh khó nghe, hình ảnh không rõ nét, thời lượng video ngắn chỉ vài giây (giống với video có tín hiệu chập chờn được thực hiện ở khu vực song di động/ wifi yếu);

Số lần nháy mắt: ít hơn người thật, đôi khi gượng ép, không tự nhiên;

Khuôn mặt và cơ thể: Sự không hợp lý giữa tỷ lệ khuôn mặt với cơ thể, giữa nét mặt và chuyển động hoặc tư thế của cơ thể; hướng đầu và cơ thể của nhân vật trong video không nhất quán; Khuôn mặt khá “đơ”, “cứng”/ “không tự nhiên”,…

Âm thanh và hình ảnh không đồng nhất;

Ứng xử khi phát hiện Deepfake

Nếu Quý Khách hàng bị làm Deepfake hoặc phát hiện người khác bị làm Deepfake, Quý Khách hàng cần:

Thông báo ngay lập tức cho mọi người biết;

Báo cho cơ quan chức năng tại địa chỉ https://canhbao.ncsc.gov.vn hoặc báo lên Dự án chống lừa đảo https://chongluadao.vn; đồng thời

Cần nâng cao nhận thức về nhận biết lừa đảo trên không gian mạng – tham khảo tại: https://dauhieuluadao.com.

Đồng thời thông báo ngay tới MBS nếu tài khoản giao dịch của Qúy Khách hàng nghi ngờ bị đối tượng xấu giả mạo.

Cảnh báo thủ đoạn lừa đảo thông qua xác nhận khuôn mặt

Công an TP. HCM mới đây đã phát đi cảnh báo thủ đoạn lừa đảo mới, thông qua yêu cầu xác nhận khuôn mặt nhằm ...

Cảnh báo NĐT về hoạt động cung cấp dịch vụ chứng khoán nhưng không được UBCKNN cấp phép

Nhà đầu tư có thể gặp rủi ro khi có tranh chấp xảy ra mà không được pháp luật về chứng khoán bảo vệ quyền ...

SSI khuyến cáo khách hàng đề cao cảnh giác trước hình thức lừa đảo qua cuộc gọi tự động

Trước thực trạng ngày càng nhiều hình thức giả mạo nhằm lợi dụng lòng tin của Nhà đầu tư, Công ty CP Chứng khoán SSI ...

Khánh Vân (t/h)

Tin liên quan
Tin cũ hơn
Xem thêm