AI thực sự thông minh hay các ứng dụng của nó chỉ thành công ở mức trung bình?

10:36 AM 20/03/2019 In bài viết

AI capabilities

Dựa trên số lượng dữ liệu ngày càng tăng và cấu ​​trúc thuật toán mới lạ nhưng mạnh mẽ, các thuật toán học tập dường như đạt đến khả năng của con người, đôi khi còn vượt trội hơn. Vấn đề đặt ra là cho đến nay người dùng vẫn chưa biết, hệ thống AI chính xác nhận được kết luận như thế nào. Do đó, điều có thể vẫn chưa rõ ràng là liệu hành vi ra quyết định của AI có thực sự là thông minh hay không, liệu các kết quả có thành công ở mức trung bình hay không?

Các nhà nghiên cứu từ TU Berlin, Viện Fraunhofer Heinrich Hertz HHI và Đại học Công nghệ và Thiết kế Singapore (SUTD) đã giải quyết câu hỏi này và đưa ra một cái nhìn tổng quan về thành quả quan sát được trong các hệ thống AI hiện tại, dựa trên phân tích cụ thể các hệ thống AI này bằng phương pháp phân tích và định lượng tự động hóa.

Điều kiện tiên quyết quan trọng nhất đối với công nghệ mới này là một phương pháp được phát triển trước đó bởi TU Berlin và Fraunhofer HHI, được gọi là thuật toán Layer-wise Relevance Propagation (LRP) cho phép trực quan hóa theo các biến đầu vào mà hệ thống AI đưa ra quyết định. Mở rộng LRP, phân tích các dữ liệu liên quan mới (SpRAy) có thể xác định và định lượng một phổ rộng các hành vi ra quyết định đã học. Theo cách này, giờ đây đã có thể phát hiện ra các quyết định không mong muốn ngay cả trong các tập dữ liệu rất lớn.

Và “khả năng giải nghĩa AI” là một trong những bước quan trọng nhất đối với ứng dụng thực tế của AI, theo Tiến sĩ Klaus-Robert Müller, Giáo sư về Machine Learning tại TU Berlin. Đặc biệt là trong chẩn đoán y tế hoặc trong các hệ thống quan trọng về bảo mật, nhưng không nên áp dụng các hệ thống AI vào các chiến lược giải quyết vấn đề không ổn định hoặc vấn đề gian lận.

Bằng cách sử dụng các thuật toán mới được phát triển của họ, các nhà nghiên cứu cuối cùng đã có thể đưa bất kỳ hệ thống AI hiện có nào vào thử nghiệm và cũng rút ra thông tin định lượng về chúng.

Tiến sĩ Wojciech Samek, trưởng nhóm tại Fraunhofer HHI cho biết: “Chúng tôi rất ngạc nhiên bởi một loạt các chiến lược giải quyết vấn đề đã được AI học tập. Ngay cả các hệ thống AI hiện đại không phải lúc nào cũng tìm thấy một giải pháp có vẻ có ý nghĩa từ quan điểm của con người, nhưng đôi khi được sử dụng cái gọi là “Chiến lược Clever Hans”.

Clever Hans là tên của một con ngựa được cho là có khả năng đếm và được giới khoa học nghiên cứu trong những năm 1900. Nhưng kết quả được phát hiện sau đó là Hans không hề có khả năng toán học nhưng trong khoảng 90% các câu hỏi đặt ra, nó có thể rút ra câu trả lời đúng dựa trên phản ứng của người hỏi.

Nhóm nghiên cứu Klaus-Robert Müller và Wojciech Samek cũng đã phát hiện ra các chiến lược tương tự như Clever Hans trong các hệ thống AI khác nhau. Ví dụ, một hệ thống AI đã giành chiến thắng trong một số cuộc thi phân loại hình ảnh quốc tế vài năm trước mặc dù được đánh giá là áp dụng theo một chiến lược có thể được coi là ngây thơ theo quan điểm của con người.

Nó phân loại hình ảnh chủ yếu trên cơ sở bối cảnh. Hình ảnh được gán cho danh mục tàu thủy khi có rất nhiều nước trong ảnh. Các hình ảnh khác được phân loại là tàu hỏa nếu có đường ray. Tuy nhiên, các hình ảnh khác đã được phân loại chính xác bởi watermark theo bản quyền của họ. Do đó, nhiệm vụ thực sự, cụ thể là phát hiện các hình ảnh về tàu hoặc tàu hỏa thì hệ thống AI này không giải quyết được - ngay cả khi nó thực sự phân loại chính xác phần lớn hình ảnh.

Các nhà nghiên cứu cũng có thể tìm thấy các loại chiến lược giải quyết vấn đề sai lầm này trong một số thuật toán AI tiên tiến, được gọi là mạng lưới thần kinh sâu - thuật toán được coi là miễn dịch chống lại những sai sót đó. Các mạng lưới này đưa ra quyết định phân loại một phần dựa trên các thành phần được tạo ra trong quá trình chuẩn bị hình ảnh và không liên quan gì đến nội dung hình ảnh thực tế.

“Các hệ thống AI như vậy không hữu ích trong thực tế. Việc sử dụng chúng trong chẩn đoán y tế hoặc trong các lĩnh vực quan trọng về an toàn thậm chí sẽ kéo theo những nguy hiểm to lớn”, ông Klaus-Robert Müller nói. “Có thể hiểu được rằng khoảng một nửa số hệ thống AI hiện đang được sử dụng hoàn toàn hoặc rõ ràng dựa vào các chiến lược Clever Hans như vậy. Đã đến lúc để kiểm tra một cách có hệ thống, để có thể phát triển các hệ thống AI an toàn”.

“Với công nghệ mới, các nhà nghiên cứu cũng xác định các hệ thống AI đã bất ngờ học được các chiến lược thông minh trên nền tảng thông minh. Ví dụ bao gồm các hệ thống đã học cách chơi các trò chơi Atari Breakout và Pinball. Cụ thể, AI hiểu rõ quy tắc của trò chơi và tìm ra một cách thông minh để thu thập rất nhiều điểm theo cách nhắm mục tiêu và rủi ro thấp. Đôi khi, hệ thống thậm chí còn can thiệp theo cách mà một người chơi thực sự sẽ không làm được”, ông Wojciech Samek nói.

“Hiểu về các chiến lược AI, công việc thiết lập khả năng sử dụng AI có thể giải thích được thiết kế bộ dữ liệu lặp, cụ thể là loại bỏ một số thành phần trong bộ dữ liệu sẽ khiến AI học các chiến lược thiếu sót, cũng như giúp quyết định các ví dụ không được gắn nhãn nào cần được chú thích và bổ sung để những thất bại của một hệ thống AI có thể được giảm bớt”, Giáo sư Alexander Binder, giáo sư SUTD cho biết.

“Công nghệ tự động của chúng tôi là nguồn mở và có sẵn cho tất cả các nhà khoa học. Chúng tôi thấy rằng công việc của mình là bước quan trọng đầu tiên trong việc làm cho các hệ thống AI mạnh mẽ hơn, có thể giải thích và bảo mật hơn trong tương lai và chắc chắn sẽ còn nhiều thứ phải làm theo. Đây là một điều kiện tiên quyết thiết yếu cho việc sử dụng chung hệ thống AI,” Klaus-Robert Müller nói.

Mai Linh