Việc sử dụng robot sát thủ trong các cuộc xung đột vũ trang toàn cầu gần như chắc chắn sẽ xảy ra và là điều khó tránh khỏi.
Trong thập kỷ vừa qua, việc mở rộng sử dụng các phương tiện vũ trang không người lái đã làm thay đổi sâu sắc hình thức tác chiến trên thế giới, đặt ra những câu hỏi mới về vấn đề nhân đạo và pháp lý.
Những tiến bộ về công nghệ trí tuệ nhân tạo (AI) hiện nay cũng như trong tương lai không xa sẽ cho phép quá trình phát triển các hệ thống vũ khí giết người tự động (LAWS) hay "robot sát thủ"diễn ra với tốc độ nhanh chóng lại càng bộc lộ thêm nhiều thách thức to lớn hơn đối với việc bảo vệ người dân và tuân thủ luật pháp quốc tế.
Những người ủng hộ việc cấm "robot sát thủ" có đầy đủ lý do thuyết phục để bảo vệ quan điểm của mình. Họ cho rằng, những vũ khí tự động giết người này không có các phẩm chất cần thiết của con người để tuân thủ các quy định của luật pháp quốc tế.
"Robot sát thủ" sẽ không thể được kiềm chế bởi cảm xúc và năng lực phán xét của con người, vốn là những điều kiện quan trọng, tiên quyết giúp kiểm soát các hành động sát thương. Những robot vô cảm có thể sẽ bị lợi dụng trở thành công cụ trong tay những kẻ độc tài, khủng bố với những hậu quả khó lường trước.
Trong một báo cáo có tựa đề: "The Case Against Killer Robots (Tạm dịch: Căn cứ chống lại robot giết người) đưa ra từ năm 2012, Tổ chức theo dõi nhân quyền quốc tế (HRW) đã cảnh báo:
"Các vũ khí tự động hoàn toàn có thể không đáp ứng các tiêu chuẩn pháp lý được đặt ra để kiểm soát việc giết hại thường dân. Những vũ khí này thiếu phẩm chất con người cần thiết để tuân thủ các quy định của luật nhân đạo quốc tế".
Một lập luận nữa cũng không kém phần quan trọng là ai sẽ chịu tránh nhiệm pháp lý với các hành động sát hại phi nhân tính của robot: chỉ huy, lập trình viên, nhà sản xuất hay chính robot?
Thế nhưng, bất chấp những cảnh báo nêu trên, cuộc chạy đua phát triển các hệ thống vũ khí tự động giết người vẫn đang diễn ra ráo riết trên khắp thế giới, đặc biệt là ở các cường quốc quân sự.
Không thể ngăn cấm?
Không khó để tưởng tượng ra những viễn cảnh ác mộng tiềm ẩn mà "robot sát thủ" gây ra nhưng theo đánh giá của nhiều nhà quan sát, việc soạn thảo một lệnh cấm khả dĩ và vận động hàng chục quốc gia tham gia ký kết là điều không hề dễ dàng.
Một báo cáo gần đây về trí tuệ nhân tạo và chiến tranh do Văn phòng Giám đốc Tình báo quốc gia công bố đã kết luận rằng công nghệ AI dự kiến sẽ gia tăng sức mạnh quân sự đáng kể cho nước Mỹ.
Greg Allen, đồng tác giả của báo cáo và hiện là nghiên cứu viên của Trung tâm Anh ninh Mỹ mới (CNAS), một tổ chức tư vấn chính sách ở Washington, không hy vọng Mỹ và các quốc gia khác có thể ngăn chặn chính họ phát triển các kho vũ khí có thể tự quyết định khi nào thì khai hỏa.
"Bạn không thể đạt được một lệnh cấm toàn diện các vũ khí tự động", Greg Allen nói, "Tính hấp dẫn của việc sử dụng nó lớn khủng khiếp".
Các công nghệ như máy bay robot và phương tiện mặt đất đã chứng tỏ tính hữu ích khiến các lực lượng vũ trang luôn tìm cách làm cho chúng trở nên độc lập hơn, kể cả việc giết người.
Mặt khác, ranh giới giữa các vũ khí do con người kiểm soát và những vũ khí tự động khai hỏa rất mờ nhạt. Nhiều quốc gia, gồm cả Mỹ đang bắt đầu vượt qua nó.
Phát ngôn viên Lầu Năm Góc Roger Cabiness nói rằng, Mỹ từ chối ủng hộ một lệnh cấm các vũ khí tự động và cho biết Luật hướng dẫn chiến tranh (Law of War Manual) của Bộ Quốc phòng Mỹ đã chỉ rõ tính tự động có thể giúp các lực lượng đáp ứng các nghĩa vụ pháp lý và đạo đức của họ.
"Ví dụ, các tư lệnh có thể sử dụng các hệ thống vũ khí dẫn đường chính xác có chức năng bám đuổi mục tiêu để giảm bớt nguy cơ làm tổn thương dân thường" - Cabiness lập luận.
Năm 2015, Chính phủ Anh cũng đã phản hồi các kêu gọi cấm vũ khí tự động với tuyên bố không cần thiết phải có một lệnh cấm như vậy và luật quốc tế hiện có đã là đủ.
"Luật nhân đạo quố tế đã đủ các quy định điều tiết lĩnh vực này", Bộ Ngoại giao Anh cho biết, "Nước Anh không phát triển vũ khí tự động giết người và tất cả các vũ khí được Quân đội Anh triển khai sẽ đặt dưới sự giám sát và kiểm soát của con người".
Cuộc chạy đua vũ trang đã được kích hoạt
Những robot giết người tưởng chừng chỉ xuất hiện trong các bộ phim khoa học giả tưởng như Kẻ hủy diệt (Terminator) hay Cảnh sát người máy (Robocop) thì trong thực tế chúng đã được sử dụng, dù ở mức độ tự động hóa khác nhau.
Nói cách khác, những mần mống công nghệ cho "robot sát thủ" trong tương lai thực tế đã hiện diện ở tất cả các môi trường tác chiến: trên bộ, trên biển và trên không. Trong khi đó, luật pháp hiệu quả để điều tiết những cỗ máy giết người này vẫn chưa được viết ra.
Thực tế, chẳng cần phải tìm kiếm đây xa mới thấy được các vũ khí có khả năng tự quyết định ở một vài mức độ nào đó. Mỹ đã sử dụng các máy bay không người lái ở Trung Đông gần một thập kỷ qua. Israel đang vận hành các tháp pháo điều khiển từ xa để bảo vệ các hàng rào biên giới gần Gaza.
Một minh chứng rõ nét nữa là hệ thống tên lửa và phòng không đặt trên tàu AEGIS được Hải quân Mỹ sử dụng. Theo một báo cáo của CNAS, hệ thống này có thể đáp trả các máy bay hoặc tên lửa đang tấn công mà không cần có sự can thiệp của con người.
Hay như hệ thống máy bay không người lái Harpy do Israel phát triển. Đây là phương tiện tuần tra khu vực để tìm kiếm các tín hiệu radar. Nếu phát hiện thấy một tín hiệu, nó lập tức dội bom vào nguồn phát. Tập đoàn Công nghiệp hàng không vũ trụ Israel (IAI) quảng bá Harpy là một vũ khí tự động "bắn và quên".
Tại châu Á, robot canh gác biên giới SGR-A1 của Samsung, loại vũ khí được cho là có thể khai hỏa tự động đã được sử dụng dọc biên giới thuộc vùng Phi quân sự (DMZ) giữa Hàn Quốc và Triều Tiên.
Đây là hệ thống tự động có thể thực hiện các hoạt động giám sát, nhận dạng âm thanh, theo dõi và sẵn sàng khai hỏa bằng súng máy hoặc ống phóng lựu vào những người đột nhập từ phía bên kia biên giới.
Dù hệ thống này chưa vận hành tự động nhưng theo bà Izumi Nakamitsu, Đại diện cấp cao về Các vấn đề Giải trừ quân bị của LHQ, chúng hoàn toàn có khả năng thực hiện được như vậy.
Tại Anh, nhà thầu quốc phòng danh tiếng BAE System cũng đang phát triển các vũ khí tự động cho Quân đội nước này.
Taranis, hệ thống máy bay chiến đấu không người lái có khả năng thực hiện các nhiệm vụ do thám, định vị mục tiêu, thu thập thông tin tình báo, ngăn chặn đối phương và đặc biệt có thể tấn công lãnh thổ thù địch với khối lượng vũ khí lớn "có các yếu tố tự động hoàn toàn".
Trong khi đó, siêu tăng Armata T-14 của Nga cũng được quảng bá là có khả năng tự động hoàn toàn, đưa loại vũ khí này trở thành xe tăng robot đầy đủ đầu tiên trên thế giới.
Giáo sư Noel Sharkey, thành viên Chiến dịch vận động ngăn chặn robot giết người bày tỏ sự lo ngại về khả năng tiềm tàng của Armata T-14: "T-14 đi trước phương Tây nhiều năm. Viễn cảnh có hàng nghìn T-14 tự động xuất hiện trên biên giới với châu Âu thực sự là ý tưởng không dám nghĩ tới".
Steven Groves, chuyên gia cao cấp thuộc Quỹ Heritage (Mỹ) ước tính, hiện có khoảng 40 quốc gia đang phát triển các robot quân sự và một số vũ khí đang được sử dụng có thể xem là tự động hoặc dễ đang điều chỉnh theo hướng tự động.
Groves ủng hộ việc Mỹ nên phản đối nỗ lực ngăn cấm các hệ thống vũ khí tự động giết người đồng thời cho rằng những vũ khí này sẽ giúp Washington tăng cường an ninh quốc gia.
"LAWS có tiềm năng giúp Mỹ gia tăng hiệu quả trên chiến trường đồng thời giảm bớt thương vong và tổn thất tính mạng cho binh sĩ" - Grove nói.
Ngày 27/8/2017, phát biểu trên tờ báo Anh Telegraph, Tướng Richard Barron, cựu Tư lệnh các lực lượng Liên quân Bộ quốc phòng Anh, cho rằng "việc sử dụng robot sát thủ trong các cuộc xung đột vũ trang toàn cầu gần như chắc chắn sẽ xảy ra và là điều khó tránh khỏi".
"Một chiếc máy không chớp mắt, không bị nóng, không bị lạnh và chỉ tuân thủ các quy tắc", ông Barron nói. "Tại sao bạn phải cử một binh sĩ 19 tuổi với một khẩu súng trường trong tay đột nhập một căn nhà để xem có gì đó bên trong nếu bạn có thể dùng một chiếc máy?".
Richard Barron biện luận: "Nước Anh sẽ đảm bảo chắc chắn sẽ luôn có con người tham gia vận hành vũ khí nhưng nếu bạn hỏi các nước khác trên thế giới, họ sẽ không có được nỗ lực tương tự đâu".
http://soha.vn/robot-sat-thu-tran-ngap-cam-hay-la-chet-20170829155155959.htm
Không có nhận xét nào:
Đăng nhận xét