DARE được dạy để có thể tìm kiếm và phân loại các biểu hiện nhỏ nhất của con người, cũng như phân tích tần suất âm thanh của giọng nói, để xác định liệu người đó có đang nói dối hay không.
Biết khi nào một người đang nói dối là một phần rất quan trọng trong cuộc sống hàng ngày, nhưng nó lại càng cấp thiết hơn trong một phiên toà. Mọi người có thể tuyên thệ rằng họ sẽ luôn nói sự thật, nhưng không phải lúc nào họ cũng tuân theo lời hứa đó. Khả năng nhận ra những điều dối trá là một yếu tố cực kỳ quan trọng để xác định ai đó vô tội hay có tội.
Để giải quyết vấn đề này, các nhà nghiên cứu thuộc Trường Đại học Maryland (UMD) đã phát triển một công cụ để nhận diện và phân tích lời nói có tên là DARE. Đây là một hệ thống sử dụng trí tuệ nhân tạo tự động phát hiện ra những điều dối trá trong các video thử nghiệm tại phiên tòa. Nhóm các nhà nghiên cứu khoa học máy tính thuộc UMD do Larry Davis - nhà nghiên cứu của Trung tâm Nghiên cứu Tự động hóa (CfAR) dẫn đầu.
DARE được dạy để có thể tìm kiếm và phân loại các biểu hiện nhỏ nhất của con người, chẳng hạn như "trề môi" hoặc "nhíu mày", cũng như phân tích tần suất âm thanh để nhận diện các mẫu giọng nói, để xác định liệu người đó có đang nói dối hay không. Sau đó, DARE được kiểm tra lại bằng cách phân tích nhiều video - trong đó các diễn viên được yêu cầu nói dối hoặc nói sự thật.
DARE có thể được sử dụng tại phòng xử án để xác định ai đang nói dối. (Ảnh minh họa).
Tuy nhiên, theo nhà nghiên cứu Bharat Singh của UMD, "chính xác" có thể không phải là từ tốt nhất để mô tả hệ thống này. "Một số bài báo đã hiểu lầm về sự chính xác", ông phát biểu trên báo chí. DARE đã làm tốt hơn người bình thường trong việc phát hiện ra những điều dối trá. "Một phát hiện thú vị là việc chúng tôi sử dụng mô-đun thị giác để mô tả các đặc điểm. Một ưu điểm đáng chú ý ở hệ thống trí thông minh nhân tạo của chúng tôi, đó là chúng có khả năng quan sát tốt hơn nhiều người bình thường khi phát hiện ai đang nói dối”, ông Singh nói.
“Số điểm” của DARE ghi được khi phát hiện sự dối trá là 0,8777 nhưng khi có kèm theo những biểu hiện vi mô của con người, số điểm này có thể tăng lên thành 0,922. Trong khi những người bình thường chỉ ghi được 0,58 điểm, Singh cho hay. Nghiên cứu này sẽ được trình bày tại Hiệp hội vì Sự tiến bộ của Trí tuệ nhân tạo diễn ra vào tháng Hai năm nay.
"Mục đích của dự án này không chỉ tập trung vào các video trong phòng xử án mà AI còn có thể dự đoán sự lừa dối trong một bối cảnh mở", Singh nói. Ông cũng lưu ý rằng, DARE có thể được các cơ quan tình báo sử dụng trong tương lai.
"Chúng tôi đang thực hiện các thí nghiệm được kiểm soát trong các trò chơi trên mạng xã hội, chẳng hạn như Mafia. Đây là nơi mà chúng tôi dễ dàng thu thập dữ liệu và đánh giá các thuật toán một cách sâu rộng hơn. Chúng tôi hy vọng rằng các thuật toán được phát triển trong các thiết lập có kiểm soát này cũng có thể khái quát hóa các “kịch bản” khác", Singh chia sẻ.
Theo ông Raja Chatilla - Chủ tịch Ban chấp hành Sáng kiến Toàn cầu về Các vấn đề đạo đức trong Trí tuệ nhân tạo và Các Hệ thống Tự động tại Viện Kỹ sư Điện và Điện tử quốc tế (IEEE), DARE nên được sử dụng thận trọng.
"Nếu điều này được sử dụng để quyết định số phận của con người, chúng cần được xem xét trong các giới hạn và trong một số bối cảnh, để giúp con người - hay thẩm phán - đưa ra quyết định. Khả năng cao là chiếc máy này cũng không hoàn toàn chính xác vì không phải ai cũng hành xử theo cùng một cách. Hơn nữa, có thể có những định kiến trong các dữ liệu được sử dụng để huấn luyện AI”, ông Chatilla nói.
Chatilla đã lưu ý rằng hình ảnh và các hệ thống nhận diện khuôn mặt đang được cải thiện. Nhưng theo ông Singh, chúng ta có thể chỉ mất ba đến bốn năm để các AI có thể phát hiện sự lừa dối một cách chính xác, bằng cách đọc những cảm xúc đằng sau các biểu hiện của con người.