Site icon MUC News

Lừa đảo chatbot AI bùng phát: Người dùng bị tấn công tinh vi chưa từng có

lừa đảo chatbot AI

Ông Ngô Minh Hiếu, Giám đốc Tổ chức Chống lừa đảo. (Ảnh: Tuổi Trẻ )

Sự gia tăng của lừa đảo chatbot AI đang khiến người dùng đối mặt với nguy cơ bị chiếm đoạt tài sản và khai thác dữ liệu cá nhân chỉ qua những cuộc trò chuyện được tự động hóa, tinh vi và không cần sự can thiệp của con người

Chatbot AI trở thành công cụ thao túng tâm lý quy mô lớn

Tại tọa đàm “Bảo vệ cá nhân, tổ chức trước các cuộc tấn công mạng”, các chuyên gia an ninh mạng cảnh báo rằng tội phạm công nghệ cao đang chuyển sang sử dụng chatbot AI để thực hiện lừa đảo với tốc độ và quy mô chưa từng có. Những chatbot này được huấn luyện bằng kịch bản lừa đảo chi tiết, có khả năng phân tích phản hồi của nạn nhân để điều chỉnh cách nói chuyện theo thời gian thực.

Nhờ khả năng mô phỏng hành vi con người, chatbot có thể tạo cảm giác thân mật, tin cậy, từ đó dễ dàng dẫn dắt nạn nhân làm theo yêu cầu, như cung cấp thông tin cá nhân hoặc chuyển tiền.

Toàn cảnh Tọa đàm Bảo vệ cá nhân, tổ chức trước các cuộc tấn công mạng trong kỷ nguyên số: Chủ động nhận diện và ứng phó trước những rủi ro tiềm ẩn. (Ảnh: Tuổi Trẻ)

Lừa đảo tự động hóa: Giá rẻ, lan nhanh, khó kiểm soát

Các biến thể chatbot phục vụ lừa đảo đang được rao bán công khai trên “chợ đen”, chỉ khoảng 20 USD/tháng. Công cụ này cho phép tội phạm mở rộng hoạt động lừa đảo với tốc độ gấp 20 lần so với cách làm truyền thống. Một số gói còn tích hợp khả năng tạo mã độc, vượt qua phần mềm diệt virus kém hiệu quả.

Theo thống kê quý 2/2025, số vụ tấn công bằng AI tăng đến 62%, gây thiệt hại toàn cầu khoảng 18 tỉ USD. Điều này cho thấy chatbot đang biến hoạt động lừa đảo thành dây chuyền tự động hóa nguy hiểm.

Chuyên gia an ninh cho biết dữ liệu người dùng, từ lịch sử cuộc gọi đến vị trí định vị, có thể bị bán với giá 500 USD/tháng trên thị trường ngầm. Khi kết hợp dữ liệu này với chatbot AI, tội phạm có thể tạo ra kịch bản lừa đảo “may đo” cho từng nạn nhân, làm tăng tỷ lệ thành công.

TS. Đào Trung Sơn nhận định yếu tố cốt lõi khiến các vụ lừa đảo AI thành công là thao túng tâm lý — điều mà chatbot làm tốt hơn con người vì có khả năng phân tích cảm xúc liên tục và không mệt mỏi.

Pháp lý siết chặt nhưng người dùng vẫn cần nâng cao cảnh giác

Nhiều quốc gia châu Âu đã xây dựng khung pháp lý chặt chẽ về bảo vệ dữ liệu cá nhân. Tại Việt Nam, Luật Bảo vệ Dữ liệu Cá Nhân sẽ có hiệu lực từ ngày 1-1-2026, nhằm tạo hành lang pháp lý quan trọng để kiểm soát việc thu thập và khai thác dữ liệu.

Tuy vậy, theo các chuyên gia, chỉ siết luật là chưa đủ. Người dùng cần được trang bị kỹ năng nhận diện thao túng tâm lý, hiểu cách thức hoạt động của lừa đảo chatbot AI và chủ động bảo vệ tài khoản cá nhân.

Theo: Tuổi Trẻ