Phong trào ngày càng tăng của các nhà khoa học thúc đẩy lệnh cấm robot giết người

Apr 20 2018
Mối quan tâm ngày càng tăng đối với vũ khí tự động trên khắp thế giới đang khiến các nhà khoa học cảnh báo và ngày càng có nhiều phong trào nhằm ngừng phát triển các loại vũ khí này trước khi công nghệ có cơ hội phát triển mạnh mẽ.
Một hộp sọ nội soi từ bộ phim 'Terminator Genisys.' Sự phát triển mạnh mẽ của công nghệ trí tuệ nhân tạo (AI) đang tạo ra một làn sóng quan tâm từ cộng đồng khoa học toàn cầu. Hình ảnh Gabe Ginsberg / WireImage / Getty

Nếu bạn là một fan hâm mộ của loạt phim "Kẻ hủy diệt", bạn đã từng thấy một cái nhìn hư cấu đáng sợ về một chiến trường loạn lạc ác mộng trong đó những cỗ máy được trang bị trí thông minh nhân tạo có sức mạnh giết người không thể kiểm soát.

Mặc dù vũ khí tự động hoàn toàn - thuật ngữ kỹ thuật dành cho robot sát thủ - vẫn chưa hoàn toàn thành hiện thực, nhưng sự phát triển nhanh chóng của robot và trí tuệ nhân tạo làm dấy lên bóng ma của quân đội một ngày nào đó sẽ sớm có xe tăng và máy bay có khả năng tấn công mà không cần con người điều khiển.

Theo một báo cáo năm 2017 của Trung tâm An ninh Mỹ mới, hơn 30 quốc gia đã hoặc đang phát triển máy bay không người lái vũ trang. Hãng thông tấn Nga TASS cũng đã đưa tin vào năm 2017 về việc nước này phát triển một "mô-đun chiến đấu" tự động - một xe tăng robot - có khả năng sử dụng trí thông minh nhân tạo để xác định mục tiêu và đưa ra quyết định. Và trong khi chính sách hiện tại của Hoa Kỳ quy định loại vũ khí hoàn toàn tự động, Lầu Năm Góc đang phát triển các robot trên không và trên bộ có thể hoạt động theo bầy đàn từ 250 người trở lên , thực hiện giám sát và các chức năng khác để hỗ trợ quân đội con người. Và theo South China Morning Post, Trung Quốc đang nghiên cứu để phát triển các tàu ngầm được trang bị trí thông minh nhân tạo có thể giúp các chỉ huy trong việc đưa ra các quyết định chiến thuật.

Tương lai đang đến nhanh chóng

Sự đổ xô nhanh chóng để tự động hóa chiến tranh đang khiến các nhà khoa học cảnh báo, và trên toàn cầu, ngày càng có nhiều phong trào ngừng phát triển vũ khí tự động trước khi công nghệ này có cơ hội phát triển mạnh mẽ. Gần 4.000 nhà nghiên cứu trí tuệ nhân tạo, robot và các nhà khoa học trong các lĩnh vực khác - bao gồm cả người sáng lập SpaceX và Tesla, Elon Musk , đồng sáng lập Apple Steve Wozniak và nhà vật lý thiên văn quá cố Stephen Hawking - đã ký một bức thư ngỏ gửi tới thế giới, thúc giục lệnh cấm "xúc phạm vũ khí tự trị nằm ngoài tầm kiểm soát của con người. " Các tổ chức như Chiến dịch ngăn chặn robot giết người ngày càng lên tiếng về nhu cầu hạn chế đối với công nghệ như vậy.

Toby Walsh , Giáo sư Khoa học về Trí tuệ Nhân tạo tại Đại học New South Wales của Australia, cảnh báo trong một email : “Chúng ta chỉ còn vài năm nữa thôi. "Nguyên mẫu tồn tại trong mọi lĩnh vực chiến đấu - trên không, trên mặt đất, trên biển và dưới biển."

Walsh đã tham gia vào nỗ lực cách đây vài năm, khi anh ta thấy rõ rằng "một cuộc chạy đua vũ trang để phát triển những loại vũ khí như vậy đang bắt đầu và chúng tôi có cơ hội để ngăn chặn tương lai lạc hậu thường được Hollywood miêu tả."

Walsh và các nhà nghiên cứu AI khác gần đây đã sử dụng sự nổi bật của họ trong lĩnh vực này để gây áp lực. Sau khi KAIST (Viện Khoa học và Công nghệ Tiên tiến Hàn Quốc), một trường đại học nghiên cứu của Hàn Quốc, thành lập một trung tâm mới dành cho hội tụ của AI và quốc phòng, họ đã gửi một bức thư ngỏ đến chủ tịch KAIST, Sung-Chul Shin, đe dọa tẩy chay trừ khi ông đưa ra những đảm bảo rằng trung tâm sẽ không phát triển các loại vũ khí hoàn toàn tự trị mà thiếu sự kiểm soát của con người. (Sung sau đó đã đưa ra một tuyên bố khẳng định rằng trường đại học sẽ không phát triển những loại vũ khí như vậy, theo Times Higher Education .)

Sáng kiến ​​Liên hợp quốc

Phong trào chống robot giết người cũng đang theo dõi chặt chẽ các diễn biến tại Geneva, nơi đại diện từ các quốc gia khác nhau đã cùng nhau tham dự hội nghị của Liên hợp quốc vào tháng 4 năm 2018 về những việc cần làm đối với vũ khí tự động.

Richard Moyes , giám đốc điều hành của Article 36 , một tổ chức kiểm soát vũ khí có trụ sở tại Vương quốc Anh, cho biết trong một email rằng vũ khí tự động có thể làm xói mòn khung pháp lý điều chỉnh chiến tranh, điều này phụ thuộc vào việc con người đưa ra quyết định về việc sử dụng vũ lực có hợp pháp hay không. một tình huống nhất định. Moyes, người nhận giải Nobel Hòa bình năm 2017 cho biết: “Nếu máy móc được cấp phép rộng rãi để thực hiện các cuộc tấn công thì những đánh giá pháp lý của con người sẽ không còn dựa trên sự hiểu biết thực tế về tình hình thực tế nữa”. . "Điều này mở ra con đường cho một cuộc xung đột khử nhân tính thực sự."

Hoa Kỳ có lẽ sẽ ủng hộ lệnh cấm robot giết người. Năm 2012, Chính quyền Obama đã ban hành một chỉ thị - mà Nhà Trắng Trump dường như đã chọn tiếp tục - yêu cầu rằng công nghệ vũ khí tự động phải được thiết kế "để cho phép các chỉ huy và người điều khiển thực hiện các mức độ phán đoán phù hợp của con người đối với việc sử dụng vũ lực." Chỉ thị cũng yêu cầu các biện pháp bảo vệ để bảo vệ chống lại các vũ khí tự động bị trục trặc và tự phát động các cuộc tấn công. Theo The Hill, Giám đốc Cơ quan Dự án Nghiên cứu Nâng cao Quốc phòng (DARPA) hồi tháng 3 cho biết ông nghi ngờ rằng Mỹ sẽ cho phép máy móc đưa ra quyết định về việc sử dụng vũ lực sát thương, theo The Hill .

Trong một email, người phát ngôn của DARPA, Jared Adams, nói rằng nghiên cứu của cơ quan này thay vào đó tập trung vào "điều tra các cách để đảm bảo rằng công nghệ cải thiện khả năng đưa ra quyết định nhanh chóng của người vận hành vào những thời điểm quan trọng hơn là làm xói mòn khả năng đó." Có một lo ngại rằng sự phụ thuộc của con người vào tự động hóa có thể làm giảm nhận thức về tình huống của họ khi họ cần gọi nó - một vấn đề mà Adams nói được minh họa bằng vụ tai nạn năm 2009 của chuyến bay 447 của Air France . Ông nói: “Vì lý do này, nghiên cứu của DARPA liên quan đến quyền tự chủ nhằm tìm ra sự cân bằng tối ưu giữa các chế độ hoạt động khác nhau với trọng tâm là hỗ trợ quyết định tối đa cho các chiến binh.

Không có sự đồng thuận quốc tế

Nhưng những robot giết người ngoài vòng pháp luật trên thế giới có thể khó khăn. Bonnie Docherty , nhà nghiên cứu vũ khí cấp cao tại Tổ chức Theo dõi Nhân quyền và phó giám đốc phụ trách xung đột vũ trang và bảo vệ dân sự tại Phòng khám Nhân quyền Quốc tế của Trường Luật Harvard, cho biết trong một email rằng trong khi hầu hết các quốc gia tại hội nghị Liên hợp quốc lo ngại về vũ khí tự trị, thì không. nhưng đồng thuận ủng hộ cho một lệnh cấm quốc tế ràng buộc về mặt pháp lý.

Một lệnh cấm đối với robot giết người có hiệu lực không? Ví dụ, một hiệp ước quốc tế lâu đời cấm vũ khí hóa học dường như đã không ngừng việc sử dụng những vũ khí như vậy trong cuộc nội chiến Syria.

Tuy nhiên, Docherty lập luận rằng các lệnh cấm vũ khí hóa học, mìn sát thương và bom, đạn chùm vẫn cứu sống được nhiều người. "Những luật như vậy ràng buộc các quốc gia tham gia với họ và bằng cách bêu xấu vũ khí có vấn đề có thể ảnh hưởng đến cả những quốc gia không tham gia. Bất kỳ luật nào - ngay cả đối với tội phạm được chấp nhận rộng rãi như giết người - đều có thể bị vi phạm bởi một kẻ lừa đảo, nhưng điều đó không có nghĩa là như vậy không nên thông qua luật pháp. Luật pháp vẫn có tác động đáng kể đến hành vi và một hiệp ước quốc tế mới nên được thông qua để ngăn chặn vũ khí tự trị hoàn toàn ", bà viết.

Bây giờ điều đó thật thú vị

Video "Slaughterbots" , được tạo ra với sự trợ giúp của giáo sư kỹ thuật và khoa học máy tính Stuart Russell của Đại học California, Berkeley , mô tả một kịch bản khủng khiếp trong đó những chiếc máy bay không người lái nhỏ bé theo dõi và ám sát những cá nhân được chọn, những người được xác định thông qua mạng xã hội. Russell giải thích trong một cuộc phỏng vấn với ABC7 News, ý tưởng là kịch hóa cách công nghệ có thể được sử dụng như một vũ khí hủy diệt hàng loạt .