Cảnh giác AI giả giọng người thân lừa tiền

(NLĐO) - Các vụ lừa đảo công nghệ tăng mạnh thời gian qua với thủ đoạn kẻ gian lợi dụng trí tuệ nhân tạo (AI) bắt chước giọng nói người thân cho mục đích lừa tiền.

Gia đình anh Benjamin Perkin (39 tuổi) ở Canada đã bị lừa mất 15.499 USD.

Câu chuyện được chính anh Perkin kể với tờ Washington Post cho biết ban đầu có một người tự xưng là luật sư gọi điện cho cha mẹ anh. Qua điện thoại "luật sư" nói "con trai ông bà" đã gây ra vụ tai nạn xe hơi khiến một nhà ngoại giao Mỹ tử vong và hiện rất cần tiền cho các chi phí pháp lý bởi anh đang bị bắt giam.

Để làm tin, "luật sư" đã chuyển máy để "Perkin" nói chuyện bố mẹ - nhưng thực chất đây là kết nối với thiết bị AI giả giọng. "Perkin" nói rất cần tiền, chỉ còn biết tin tưởng vào gia đình và với "giọng nói đủ gần gũi" khiến cha mẹ Perkin bị mắc lừa.

Vài giờ sau khi bị "luật sư" hối thúc cha mẹ anh Perkin đã ra ngân hàng rút tiền và gửi đi 15.449 USD thông qua một hệ thống chuyển đổi sang tiền số Bitcoin.

Tối hôm đó khi Perkin gọi điện về cho bố mẹ thì tất cả mới vỡ lẽ. Cha mẹ anh cũng nói họ có cảm giác cuộc gọi "có gì đó bất thường" nhưng vẫn làm theo vì nghĩ đã nói chuyện với con trai.

"Có lẽ nhóm lừa đảo đã xem các video của tôi đăng trên YouTube và sau đó huấn luyện cho AI bắt chước giọng nói của tôi. Tiền đã gửi đi mất, không có bảo hiểm nên không thể lấy lại được" - anh Perkin cho biết.

Cảnh giác AI giả giọng người thân lừa tiền - Ảnh 1.

Sử dụng trí tuệ nhân tạo để giả giọng cho mục đích lừa đảo ngày càng phổ biến. Ảnh minh họa: Washington Post

Câu chuyện tương tự xảy đến với gia đình bà Ruth Card (73 tuổi) ở Regina nhưng lần này nạn nhân may mắn hơn. Theo đó, vào một buổi sáng bà Ruth Card nhận được cuộc gọi từ người lạ.

Bên kia đầu dây nói với bà Ruth Card rằng cháu trai của bà là anh Brandon bị tạm giam, không có điện thoại để liên lạc và cần một số tiền để được tại ngoại.

"Trong đầu tôi lúc đó chỉ lóe lên suy nghĩ rằng tôi phải giúp thằng bé ngay lập tức" - bà nói Ruth Card ở Canada nói với Washington Post.

Sau đó, bà cùng chồng đến ngân hàng và rút 2.207 USD - mức tối đa bà có thể rút hằng ngày. Ông bà định qua ngân hàng thứ hai để lấy số tiền tương tự nhưng may mắn cho họ là vị giám đốc ngân hàng đã gọi cả hai vào văn phòng trao đổi.

Tại đây, vị giám đốc nói một khách hàng khác cũng nhận được cuộc gọi giống hệt, cũng bị giả giọng người thân với mức "chính xác đến kỳ lạ". Cả hai gọi điện cho cháu trai và đúng là anh không sao cả, cũng không gọi về nhà cầu cứu ông bà.

"Chúng tôi bị cuốn theo câu chuyện mà không tìm hiểu kỹ. Khi đó, tôi tin chắc đang nói chuyện với Brandon mà không nghi ngờ" - bà Card cho hay.

Các vụ lừa đảo công nghệ tăng mạnh thời gian qua với thủ đoạn kẻ gian lợi dụng trí tuệ nhân tạo (AI) bắt chước giọng nói người thân cho mục đích lừa tiền. Công nghệ này ngày càng rẻ, dễ tiếp cận khiến số nạn nhân ngày càng tăng, chủ yếu nhắm đến người lớn tuổi.

Ủy ban Thương mại Liên bang Mỹ (FTC) cho biết trong năm 2022, mạo danh là hình thức lừa đảo phổ biến thứ hai ở Mỹ, với hơn 36.000 báo cáo. 

Kẻ gian thường giả mạo bạn bè hoặc gia đình để khiến nạn nhân mắc lừa. Riêng lừa đảo qua điện thoại chiếm hơn 5.100 trường hợp, gây thiệt hại hơn 11 triệu USD.

Link nội dung: https://tintuc365.net/canh-giac-ai-gia-giong-nguoi-than-lua-tien-a13606.html