Làm thế nào kẻ tấn công có thể lạm dụng trí tuệ nhân tạo?

10:14 AM 22/07/2019 In bài viết

abuse artificial intelligence

Nhưng một báo cáo mới được công bố bởi tập đoàn SHERPA - một dự án của EU nghiên cứu tác động của trí tuệ nhân tạo đến đạo đức và nhân quyền lại chỉ ra một vấn đề nguy hiểm cấp bách. Các chuyên gia nhận thấy rằng trong khi những kẻ tấn công mạng có quyền truy cập vào các kỹ thuật học máy, chúng hiện tập trung hầu hết các nỗ lực của mình vào việc điều khiển các hệ thống trí tuệ nhân tạo hiện tại cho các mục đích độc hại, thay vì tạo ra các cuộc tấn công mới sẽ sử dụng máy học.

Trọng tâm chính của nghiên cứu là về cách các tác nhân độc hại có thể lạm dụng trí tuệ nhân tạo, học máy và hệ thống thông tin thông minh. Các nhà nghiên cứu xác định một loạt các ứng dụng có khả năng gây hại cho trí tuệ nhân tạo, nằm trong tầm với của những kẻ tấn công hiện nay. Chúng bao gồm cả việc tạo ra các chiến dịch sai lệch thông tin và kỹ thuật xã hội.

Và các nhà nghiên cứu không tìm thấy bất kỳ bằng chứng rõ ràng nào cho thấy các tác nhân độc hại hiện đang sử dụng trí tuệ nhân tạo để tăng sức mạnh cho các cuộc tấn công mạng. Các chuyên gia nhấn mạnh rằng các đối thủ đã tấn công và thao túng các hệ thống trí tuệ nhân tạo hiện có, được sử dụng bởi các công cụ tìm kiếm, các công ty truyền thông xã hội, các trang web khuyến nghị, v.v…

Andy Patel, một nhà nghiên cứu đến từ trung tâm trí tuệ nhân tạo của F – Secure, cho rằng nhiều người sẽ ngạc nhiên khi thấy kết quả của nghiên cứu này. Những miêu tả phổ biến về trí tuệ nhân tạo ám chỉ nó sẽ quay lưng lại với con người và bắt đầu tự mình tấn công con người. Nhưng thực tế hiện nay là con người đang tấn công các hệ thống trí tuệ nhân tạo một cách thường xuyên.

Patel giải thích: “Một số người đánh đồng không chính xác trí thông minh của máy móc với trí thông minh của con người, và tôi nghĩ rằng đó là lý do tại sao họ liên kết mối đe dọa của trí tuệ nhân tạo với những robot giết người và máy tính ngoài tầm kiểm soát”.

Ông nói thêm: “Tuy nhiên, cuộc tấn công của con người chống lại các hệ thống trí tuệ nhân tạo thực sự xảy ra mọi lúc. Các cuộc tấn công Sybil được thiết kế để đầu độc hệ thống trí tuệ nhân tạo mà con người sử dụng hàng ngày, như các hệ thống khuyến nghị đưa ra gợi ý, là một trường hợp phổ biến. Có cả các công ty bán dịch vụ để hỗ trợ hành vi này. Trớ trêu thay, ngày nay các hệ thống trí tuệ nhân tạo có nhiều nỗi sợ từ con người hơn là theo chiều ngược lại”.

Các cuộc tấn công Sybil liên quan đến một thực thể duy nhất tạo và kiểm soát nhiều tài khoản giả nhằm thao túng dữ liệu mà trí tuệ nhân tạo sử dụng để đưa ra quyết định.

Một ví dụ phổ biến của cuộc tấn công này là thao túng bảng xếp hạng công cụ tìm kiếm hoặc hệ thống khuyến nghị để quảng bá hoặc hạ cấp một số nội dung nhất định. Tuy nhiên, các cuộc tấn công này cũng có thể được sử dụng để thiết kế các tác nhân xã hội trong các kịch bản tấn công được nhắm mục tiêu.

Patel đã thực hiện các nghiên cứu sâu rộng về những hoạt động đáng ngờ trên Twitter cho biết: “Các nhà cung cấp dịch vụ trực tuyến gặp rất nhiều khó khăn trong việc phát hiện các loại tấn công này, và các hành vi này có khả năng lan rộng hơn nhiều so với sự tưởng tượng của con người”.

Nhưng có lẽ ứng dụng trí tuệ nhân tạo hữu ích nhất cho những kẻ tấn công trong tương lai sẽ giúp chúng tạo ra những nội dung giả mạo. Báo cáo lưu ý rằng trí tuệ nhân tạo đã tiến đến một mức độ mà nó có thể chế tạo nội dung bằng văn bản, âm thanh và hình ảnh cực kỳ chân thực. Một số mô hình trí tuệ nhân tạo thậm chí đã không được truyền bá ra công chúng để ngăn chặn chúng bị lạm dụng bởi những kẻ tấn công.

Patel cho biết: “Hiện tại, khả năng tạo nội dung giả mạo đầy tính thuyết phục đã trở nên tinh vi và tiên tiến hơn nhiều so với khả năng phát hiện những nội dung nào là giả mạo. Và trí tuệ nhân tạo đang hỗ trợ việc chế tạo âm thanh, video và hình ảnh, điều này sẽ chỉ làm cho thông tin sai lệch và nội dung giả mạo trở nên tinh vi và khó phát hiện hơn”.

Những phát hiện và chủ đề khác được đề cập trong nghiên cứu bao gồm:

  • Những kẻ tấn công sẽ tiếp tục học cách thỏa hiệp các hệ thống trí tuệ nhân tạo khi công nghệ ngày càng lan rộng và phát triển
  • Số lượng cách thức mà những kẻ tấn công có thể thao túng đầu ra của trí tuệ nhân tạo khiến các cuộc tấn công như vậy khó bị phát hiện, khó có thể đối phó và ngăn chặn.
  • Quyền hạn cạnh tranh để phát triển các loại trí tuệ nhân tạo tốt hơn cho mục đích tấn công/phòng thủ có thể sẽ kết thúc cuộc đua vũ trang của trí tuệ nhân tạo.
  • Bảo vệ hệ thống trí tuệ nhân tạo chống lại các cuộc tấn công có thể gây ra các vấn đề đạo đức (ví dụ: tăng cường giám sát hoạt động có thể dẫn đến vi phạm quyền riêng tư của người dùng).
  • Các công cụ và mô hình trí tuệ nhân tạo được phát triển bởi các tác nhân đe dọa có nguồn lực tốt, tiên tiến, cuối cùng sẽ sinh sôi nảy nở và được chấp nhận bởi những kẻ tấn công có kỹ năng thấp hơn.

Ngọc Huyền