Q:
Tại sao DARPA nghiên cứu "AI có thể giải thích"?
A:Nhìn chung, trí thông minh nhân tạo có thể giải thích đang trở thành một phần được báo trước của công việc tiên tiến trong khoa học dữ liệu. Nó giúp hướng dẫn sự kiểm soát của con người đối với một loại công nghệ vốn đã biến động và năng động - AI có thể giải thích giúp trả lời rất nhiều câu hỏi tập thể của chúng ta về cách trí tuệ nhân tạo sẽ hoạt động.
Để hiểu AI có thể giải thích, nó giúp hiểu "AI thông thường" trông như thế nào. Theo truyền thống, khi AI bắt đầu hình thành, dự án điển hình bao gồm một khả năng phần mềm mới lạ mắt, ẩn trong các thuật toán và tập huấn luyện và mã tuyến tính, đó là một "hộp chặn" cho người dùng. Họ biết rằng nó hoạt động - họ chỉ không biết chính xác làm thế nào.
Điều này có thể dẫn đến "các vấn đề về niềm tin" nơi người dùng có thể đặt câu hỏi về cơ sở mà công nghệ đưa ra quyết định. Đó là điều AI có thể giải thích được cho là phải giải quyết: Các dự án AI có thể giải thích đi kèm với cơ sở hạ tầng bổ sung để cho người dùng cuối biết ý định và cấu trúc của AI - tại sao nó làm những gì nó làm.
Trong thời đại mà các nhà đổi mới hàng đầu như Bill Gates và Elon Musk đang bày tỏ mối quan tâm về cách trí tuệ nhân tạo sẽ hoạt động, AI có thể giải thích có vẻ cực kỳ hấp dẫn. Các chuyên gia cho rằng AI có thể giải thích tốt có thể giúp người dùng cuối hiểu lý do tại sao công nghệ làm những gì họ làm, tăng niềm tin và cũng tăng tính dễ sử dụng và sử dụng các công nghệ này.
Tuy nhiên, cụ thể, DARPA giải thích cụ thể lý do tại sao nó quan tâm đến các dự án mới. Một trang trên DARPA cho thấy Bộ Quốc phòng dự đoán một ứng dụng trí tuệ nhân tạo, và một số hỗn loạn trong quá trình phát triển.
David Tiếp tục tiến bộ hứa hẹn sẽ tạo ra các hệ thống tự trị sẽ nhận thức, học hỏi, quyết định và tự mình hành động, David Gunning viết. Tuy nhiên, hiệu quả của các hệ thống này bị hạn chế bởi khả năng hiện tại của máy không thể giải thích các quyết định và hành động của chúng cho người dùng. AI có thể giải thích được - đặc biệt là học máy có thể giải thích - sẽ rất cần thiết nếu các chiến binh trong tương lai hiểu, tin tưởng một cách thích hợp và quản lý hiệu quả một thế hệ mới của các đối tác máy thông minh nhân tạo.
Bài tiểu luận trực tuyến của Gunning cho thấy rằng các hệ thống AI có thể giải thích sẽ giúp cung cấp cơ sở lý luận cho các công nghệ, thể hiện điểm mạnh và điểm yếu của họ và làm cho các trường hợp sử dụng trở nên minh bạch hơn. Một hình ảnh trên trang cho thấy một đường dẫn đơn giản của chức năng trí tuệ nhân tạo từ dữ liệu đào tạo sẽ được tăng cường bằng một thứ gọi là mô hình có thể giải thích và giao diện có thể giải thích sẽ giúp người dùng trả lời các câu hỏi. Gunning tiếp tục gợi ý rằng một chương trình AI có thể giải thích sẽ có hai lĩnh vực trọng tâm chính - một là sẽ lọc qua dữ liệu đa phương tiện để tìm những gì hữu ích cho người dùng và trọng tâm thứ hai sẽ mô phỏng các quy trình quyết định để hỗ trợ quyết định.
DARPA hy vọng sẽ cung cấp một bộ công cụ của người dùng có thể giúp phát triển các hệ thống AI có thể giải thích trong tương lai.