Các hệ thống vũ khí tự hành – còn gọi là robot sát thủ - có thể đã lần đầu tiên giết hại con người vào năm ngoái - theo một báo cáo mới đây của Hội đồng Bảo an Liên hợp quốc về cuộc nội chiến Libya.
Lịch sử cũng có thể xác định đây là điểm khởi đầu của cuộc chạy đua vũ trang lớn tiếp theo, một diễn biến có khả năng trở thành cuộc chạy đua cuối cùng của nhân loại.
Robot sát thủ có thể là những thành phần quan trọng trong các cuộc xung đột tương lai. (Ảnh: Automationworld)
Các hệ thống vũ khí tự động là những robot trang bị vũ khí sát thương có thể hoạt động độc lập, lựa chọn và tấn công mục tiêu mà không cần con người ra quyết định.
Các quân đội trên khắp thế giới đang đầu tư rất mạnh vào nghiên cứu và phát triển vũ khí tự động. Chỉ riêng Mỹ đã chi ngân sách 18 tỷ USD cho vũ khí tự động từ năm 2016 đến 2020.
Theo Giáo sư James Dawes, chuyên gia về vũ khí hóa trí tuệ nhân tạo tại Đại học Macalester (Anh), vũ khí tự động tạo ra sự cân bằng không ổn định và phân mảnh các biện pháp bảo vệ với thế giới hạt nhân, chẳng hạn như quyền hạn chế tối thiểu của Tổng thống Mỹ trong việc phát động một cuộc tấn công.
Robot quân sự không người lái trong một cuộc diễn tập của Hải quân Mỹ. (Ảnh: US Navy).
Giáo sư Dawes cho rằng có 4 mối nguy hiểm chính với vũ khí tự động.
Xác định sai mục tiêu, các lỗi thuật toán
Khi chọn mục tiêu, liệu vũ khí tự động có thể phân biệt giữa những người lính thù địch với đứa trẻ 12 tuổi đang chơi nghịch với súng đồ chơi hay không? Liệu nó có thể phân biệt dân thường đang chạy trốn khỏi một địa điểm xung đột với phiến quân đang rút lui chiến thuật?
Vấn đề ở đây không phải là máy móc sẽ mắc những lỗi như vậy, còn con người thì không. Mà đó là sự khác biệt giữa lỗi của con người và lỗi thuật toán, giống như sự khác biệt giữa gửi một bức thư và đăng một dòng tweet.
Quy mô, phạm vi và tốc độ của các hệ thống robot sát thủ - được quy định bởi một thuật toán nhắm mục tiêu – có thể nhận dạng sai với con người, giống như trong sự cố máy bay không người lái Mỹ tấn công nhầm tại Afghanistan gần đây.
Chuyên gia vũ khí tự hành Paul Scharre, tại Trung tâm An ninh Mỹ Mới, đã lấy sự cố súng cướp cò để giải thích sự khác biệt. Súng cướp cò là tình trạng khẩu súng máy bị lỗi tiếp tục bắn đạn sau khi đã nhả cò súng. Súng tiếp tục bắn cho đến khi hết đạn, bởi vì lẽ đương nhiên là khẩu súng không biết mình mắc lỗi.
Súng cướp cò là sự cố cực kỳ nguy hiểm, nhưng chúng còn có con người điều khiển, người cầm có thể cố gắng hướng vũ khí về hướng an toàn. Còn theo định nghĩa, vũ khí tự động sẽ không có biện pháp bảo vệ như vậy.
Như nhiều nghiên cứu về các lỗi thuật toán trong các ngành đã chỉ ra, những thuật toán tốt nhất – hoạt động như thiết kế - có thể tạo ra các kết quả chính xác cục bộ, nhưng vẫn để lan ra nhanh chóng những lỗi nghiêm trọng trên các quần thể. Vấn đề không chỉ là khi các hệ thống AI bị sai, chúng sai hàng loạt, và những người tạo ra thường không biết tại sao và do đó không thể sửa chữa.
Vũ khí hóa trí tuệ nhân tạo có thể dẫn đến những rủi ro nghiêm trọng. (Ảnh minh họa).
Robot sát thủ giá rẻ có thể lan tràn
Hai nguy cơ tiếp theo là vấn đề phổ biến vũ khí tự hành ở mức độ thấp và cao.
Ở mức độ thấp, các quân đội phát triển vũ khí tự hành với giả định rằng họ có thể ngăn chặn và kiểm soát việc sử dụng vũ khí loại này. Nhưng nếu lịch sử của công nghệ vũ khí đã dạy cho thế giới bất cứ điều gì, thì đó chính là: vũ khí sẽ được phổ biến.
Áp lực thị trường có thể dẫn đến việc chế tạo và buôn bán rộng rãi thứ có thể được coi là vũ khí tự động giống như với súng trường tấn công Kalashnikov: những loại robot sát thủ giá rẻ, hiệu quả và hầu như không thể bị kiểm soát khi chúng lưu hành trên toàn cầu.
Vũ khí tự hành kiểu “Kalashnikov” có thể lọt vào tay những đối tượng nằm ngoài sự kiểm soát của chính phủ, bao gồm các phần tử khủng bố quốc tế và trong nước.
Vũ khí tự động có sức tàn phá khủng khiếp, dễ dẫn đến chiến tranh
Ở mức độ phổ biến vũ khí cấp độ cao, các quốc gia có thể đua tranh phát triển những phiên bản vũ khí tự động ngày càng có sức tàn phá khủng khiếp, bao gồm cả những loại có khả năng gắn vũ khí sinh học, hóa học, phóng xạ và hạt nhân. Các mối nguy hiểm về mặt đạo đức của việc gia tăng khả năng gây chết người của vũ khí sẽ tăng lên.
Vũ khí tự hành cao cấp có nguy cơ dễ dẫn đến xung đột và chiến tranh hơn. Các loại vũ khí này cũng sẽ làm giảm cả nhu cầu và rủi ro đối với binh sĩ của bên tham chiến, làm thay đổi đáng kể phân tích lợi ích chi phí mà các bên phải trải qua khi phát động và duy trì chiến tranh.
Các cuộc chiến tranh phi đối xứng - tức là các cuộc chiến tranh được tiến hành trên đất của các quốc gia thiếu công nghệ cạnh tranh - có khả năng trở nên phổ biến hơn.
Kargu-2, thiết bị lai giữa máy bay không người lái và một quả bom, do một nhà thầu quốc phòng Thổ Nhĩ Kỳ chế tạo, có thể đã tấn công dân thường trong cuộc nội chiến Libya. (Ảnh: The Conversation).
Phá hoại luật chiến tranh
Cuối cùng, các vũ khí tự hành sẽ hủy hoại chốt chặn cuối cùng của loài người trước các tội ác chiến tranh và hành động tàn bạo: đó là luật quốc tế về chiến tranh. Những luật này, vốn được hệ thống hóa trong các hiệp ước đã có lịch sử từ Hiệp ước Geneva năm 1864, là ranh giới mong manh để chia tách chiến tranh với hành động thảm sát.
Những luật chiến tranh dựa trên cơ sở là con người phải chịu trách nhiệm về hành động của họ kể cả trong thời chiến, rằng quyền được tiêu diệt binh sĩ đối phương trong chiến trận không đồng nghĩa với quyền sát hại dân thường.
Nhưng làm thế nào để vũ khí tự động có thể chịu trách nhiệm? Ai là người chịu trách nhiệm cho một robot phạm tội ác chiến tranh? Ai sẽ bị đưa ra xét xử: Vũ khí? Người lính? Các chỉ huy của người lính? Tập đoàn chế tạo vũ khí?
Các tổ chức phi chính phủ và các chuyên gia về luật pháp quốc tế lo ngại rằng vũ khí tự hành sẽ dẫn đến khoảng cách nghiêm trọng về trách nhiệm giải trình.