Cảm xúc của chúng ta có thể ảnh hưởng đến mọi thứ, từ sự ngon miệng đến cách chúng ta cảm nhận thế giới - và thậm chí là cách chúng ta bước đi nữa.
Vậy liệu chúng ta có thể diễn giải ra được cảm giác của ai đó mà chỉ cần dựa trên dáng đi của họ hay không? Đó chính xác là điều mà các nhà khoa học tại Đại học North Carolina ở Chapel Hill và Đại học Maryland ở College Park đã và đang dạy máy tính thực hiện. Sử dụng deep learning, phần mềm của họ có thể phân tích một đoạn video về ai đó đang bước đi, chuyển nó thành một mô hình 3D và trích xuất ra dáng đi của người đó. Sau đó, một mạng thần kinh sẽ xác định chuyển động chủ đạo và ghép đôi nó với một loại cảm xúc cụ thể, dựa trên dữ liệu mà nó đã được huấn luyện trước đó. Theo các nhà nghiên cứu, mô hình deep learning này có thể đoán được 4 cảm xúc khác nhau - vui, buồn, giận dữ và bình thường - với tỉ lệ chính xác lên đến 80%.
Mô hình deep learning này có thể đoán được 4 cảm xúc khác nhau - vui, buồn, giận dữ và bình thường.
Dù chúng ta từng chứng kiến nhiều AI được huấn luyện để đoán được cảm xúc con người dựa trên biểu cảm khuôn mặt hay giọng nói, đây là lần đầu tiên có một thuật toán được huấn luyện để đoán chính xác cảm xúc chỉ bằng cách xem con người bước đi.
Aniket Bera, giám sát nghiên cứu và là giáo sư khoa học máy tính tại Đại học Maryland, cho biết nghiên cứu của họ không phải nhằm tìm cách phát hiện được cảm xúc thực tế, mà thay vào đó là dự đoán cảm xúc lĩnh hội - tức cảm xúc của một người dưới con mắt của người đối diện, giống như chúng ta dự đoán về cảm xúc của mỗi người khi gặp nhau hàng ngày vậy. Theo Bera, thông qua nghiên cứu, có thể dạy cho robot cách đoán được con người xung quanh chúng đang nghĩ gì, và thay đổi hành vi của chúng cho phù hợp. Hoặc ngược lại: nó có thể giúp các kỹ sư thiết kế ra những con robot có khả năng giao tiếp tốt hơn với dáng đi và chuyển động cơ thể của họ.
Bera nói thêm rằng nghiên cứu này sẽ giúp mở đường cho các ứng dụng giám sát trong tương lai, hoặc thậm chí giúp biến trải nghiệm thực tại hỗn hợp trở nên hấp dẫn hơn, bởi các mô hình 3D của con người đang bước đi theo những cách đặc trưng có thể giúp thiết kế ra các nhân vật thực tế hơn.
Nhưng nhóm nghiên cứu kết luận rằng, bước tiếp theo sẽ là tập trung vào những hành động khác chứ không chỉ riêng đi bộ, ví dụ như chạy, và những cử chỉ, để hiểu được cả những cảm xúc nhỏ nhất mà chúng ta biểu đạt khi di chuyển.