TÀI CHÍNH - CÔNG NGHỆ - DOANH NGHIỆP - VINATHIS NETWORK

http://vinathis.com/news


Trí tuệ nhân tạo đang bị lợi dụng tạo mã độc, lừa đảo

Các chuyên gia hàng đầu trong lĩnh vực an ninh mạng đánh giá rằng tội phạm mạng ngày càng sáng tạo trong việc khai thác tiềm năng của trí tuệ nhân tạo tiên tiến để phát triển các hình thức tấn công mới có hiệu suất tối ưu hơn.
Trí tuệ nhân tạo đang bị lợi dụng tạo mã độc, lừa đảo

Trong một cuộc phỏng vấn gần đây với Reuters, ông Sami Khoury, Giám đốc Trung tâm an ninh mạng Canada, đã chia sẻ rằng trí tuệ nhân tạo (AI) đang được tận dụng để tạo ra mã độc, soạn thảo email lừa đảo và lan truyền thông tin sai lệch trên mạng.

Những tháng gần đây đã chứng kiến nhiều tổ chức an ninh mạng cảnh báo về rủi ro liên quan đến việc sử dụng AI, đặc biệt là các hệ thống xử lý ngôn ngữ lớn (LLM) được đào tạo bằng lượng lớn dữ liệu người dùng để tạo ra các nội dung giống thật, bao gồm văn bản, hình ảnh và video.

Báo cáo của Cục Cảnh sát châu Âu Europol tháng 3 cụ thể đã chỉ ra rằng các công cụ tiên tiến như ChatGPT của OpenAI có thể dẫn đến việc giả mạo tổ chức hoặc cá nhân, đặc biệt là đối với những người có kiến thức cơ bản về tiếng Anh.

Công ty an ninh mạng Darktrace từ Anh cũng đã cảnh báo vào ngày 8/3 về khả năng sử dụng công cụ ChatGPT để gia tăng nguy cơ lừa đảo qua email trên không gian mạng.

Sức hấp dẫn của ChatGPT đối với cộng đồng công nghệ toàn cầu đã được các chuyên gia công nhận, nhờ khả năng tạo ra những bài luận, email dài hàng nghìn từ chỉ trong vài giây với một lệnh đơn giản. Tuy nhiên, điều này đã mở ra cơ hội cho sự xuất hiện của các email phức tạp với đoạn văn bản có dấu câu, dài hơn và nhiều nội dung, giúp các tội phạm mạng tạo ra các kế hoạch tinh vi hơn nhằm lừa đảo người dùng.

Tin tặc có thể sử dụng ChatGPT để soạn thảo các email lừa đảo chân thực mà không mắc lỗi chính tả, nhằm thuyết phục người nhận cung cấp thông tin cá nhân như mật khẩu hoặc tài liệu tài khoản ngân hàng.

Các nhà nghiên cứu về an ninh đã chứng minh nhiều trường hợp sử dụng trí tuệ nhân tạo độc hại khác nhau. Một số chuyên gia đã ghi nhận nội dung giả mạo được tạo ra bởi trí tuệ nhân tạo trong thực tế khi mô hình LLM được đào tạo bằng dữ liệu độc hại, và sau đó được yêu cầu viết ra các kịch bản lừa đảo nhằm lừa người khác để chuyển tiền. Trong một ví dụ, mô hình LLM đã tạo ra một đoạn email đề xuất nạn nhân cấp cứu và hỗ trợ khẩn cấp.

Với tầm quan trọng của công nghệ AI ngày càng tăng, việc kiểm soát các rủi ro tiềm ẩn là một thách thức lớn. Ông Khoury lưu ý rằng dù việc tận dụng AI để viết mã độc mới còn ở giai đoạn đầu, nhưng công nghệ này có khả năng phát triển mạnh mẽ trong tương lai. Điều này tạo ra một thách thức trong việc đánh giá nguy cơ tiềm tàng trước khi chúng được thực sự áp dụng. "Không ai có thể dự đoán chính xác điều gì sẽ xảy ra", ông Sami Khoury chia sẻ.

Với sự gia tăng của các công cụ AI như ChatGPT, việc đạt được sự cân nhắc giữa lợi ích và rủi ro là vô cùng quan trọng. Cần thiết phải thuyết phục công chúng rằng công nghệ này đang được phát triển và sử dụng một cách có trách nhiệm. Để thực hiện điều này, các hệ thống AI cần được thiết kế và phát triển một cách minh bạch, tuân theo khung pháp lý để đảm bảo sự thống nhất với các chuẩn mực xã hội.

Tác giả bài viết: Vinathis Finance

Bạn đã không sử dụng Site, Bấm vào đây để duy trì trạng thái đăng nhập. Thời gian chờ: 60 giây