vị trí của bạn:Nơi tập hợp tin tức > giáo dục thể chất > Vũ khí được điều khiển bởi AI? Nhân loại đối mặt với “khoảnh khắc Oppenheimer”

Vũ khí được điều khiển bởi AI? Nhân loại đối mặt với “khoảnh khắc Oppenheimer”

thời gian:2024-08-03 10:46:38 Nhấp chuột:126 hạng hai
{1[The Epoch Times, ngày 10 tháng 5 năm 2024] (Phóng sự bởi Wu Ruichang, phóng viên Ban đặc biệt của Epoch Times) Sự phát triển và ứng dụng AI ngày càng trở nên phổ biến, nhưng mọi người cũng ngày càng lo lắng rằng AI sẽ chiếm lĩnh mất việc làm của họ, và thậm chí cả AI Nó có thể điều khiển vũ khí hủy diệt hàng loạt và gây ra những tổn thất không thể khắc phục cho nhân loại. Quan chức Áo thậm chí còn thẳng thắn cho rằng nhân loại đang ở trong “thời điểm Oppenheimer” của AI.

Paul Dean, phó trợ lý chính thư ký của Cục Kiểm soát vũ khí, Răn đe và Ổn định Hoa Kỳ, đã tuyên bố trong một cuộc họp ngắn trực tuyến vào đầu tháng 5 rằng Hoa Kỳ, Vương quốc Anh và Pháp Họ đều "hứa ​​hẹn rõ ràng" rằng Việc triển khai và kiểm soát vũ khí hạt nhân chỉ có thể được quyết định và kiểm soát bởi con người, đồng thời họ từ chối AI kiểm soát hoặc xác định việc sử dụng vũ khí hạt nhân.

Ông cũng nói: “Chúng tôi hoan nghênh Trung Quốc (ĐCSTQ) và Nga đưa ra những tuyên bố tương tự. Tôi cho rằng đây là một quy tắc ứng xử có trách nhiệm cực kỳ quan trọng và tất cả năm thành viên thường trực của Hội đồng Bảo an Liên hợp quốc đều đã đưa ra cam kết này. điều này sẽ rất quan trọng."

CASINO AE

Kỹ sư máy tính người Nhật Kiyohara Jin nói với The Epoch Times vào ngày 7 tháng 5: “AI là một sản phẩm dựa trên phân tích dữ liệu và nó rất khác với phán đoán của con người. Con người có lý trí, cảm xúc và những hạn chế về đạo đức, nhưng AI không có những điều này. , và dữ liệu có thể sai nếu được phép kiểm soát bom hạt nhân, sẽ khủng khiếp như việc Đảng Cộng sản Trung Quốc, Iran và các quốc gia độc tài khác làm chủ vũ khí sinh học và hóa học.”

AI đã bước vào giai đoạn thực hành

Trên thực tế, AI đã được sử dụng rộng rãi trong quân đội, chẳng hạn như xe tăng có khả năng phát hiện tự động, máy bay không người lái tự động tìm kiếm và tấn công mục tiêu, chó cơ khí có thể tấn công bằng lửa hoặc đạn cũng như các vũ khí trang bị AI khác. đã thực sự bước vào giai đoạn chiến đấu thực tế. Mọi người lo lắng rằng những vũ khí được hỗ trợ bởi AI này sẽ mở rộng sang những loại vũ khí có tính sát thương cao hơn.

Trưa ngày 5 tháng 5, Căn cứ Không quân Edwards ở California đã thử nghiệm một máy bay chiến đấu F-16 có bề ngoài màu cam và trắng, được đặt tên là "X-62A" và "VISTA" (Máy bay thử nghiệm mô phỏng chuyến bay biến thiên).

CASINO AE

Bộ trưởng Không quân Hoa Kỳ Frank Kendall đã có chuyến đi đặc biệt đến đây để xem và trải nghiệm máy bay chiến đấu F-16 do AI điều khiển. Máy bay chiến đấu được điều khiển bởi AI và Kendall ngồi bên trong. Nó tiến hành một cuộc diễn tập không chiến với một máy bay chiến đấu F-16 khác do người thật điều khiển trong hơn một giờ. , liên tục vặn vẹo, xoay tròn, cố gắng ép đối thủ vào tình thế không thể chống trả.

Sau cuộc tập trận, Kendall bày tỏ niềm tin rằng AI vẫn đang trong quá trình học hỏi có khả năng quyết định xem có phóng vũ khí trong chiến tranh hay không.

Nhà điều hành quân sự của VISTA cũng tuyên bố rằng không có quốc gia nào trên thế giới có máy bay chiến đấu AI như vậy. AI này lần đầu tiên học hàng triệu dữ liệu trong một trình mô phỏng và kiểm tra dữ liệu mà nó học được trong các chuyến bay thực tế.

Tuy nhiên, một số chuyên gia kiểm soát vũ khí phản đối việc AI kiểm soát vũ khí quá mức vì họ lo ngại một ngày nào đó AI có thể tự động thả bom hoặc các vũ khí mạnh hơn để giết người mà không có sự kiểm soát của con người, nên họ tìm kiếm những hạn chế chặt chẽ hơn và hy vọng rằng nó có thể củng cố kiểm soát AI.

哈里斯星期四在休士顿对最大教师工会讲话时承诺将为未来而战,她也猛烈攻击特朗普主张的极端主义正威胁美国得之不易的自由。

据路透社查阅的招标文件,以及对美澳国防官员进行的访谈,美国已悄然开始在澳洲北部投入数亿美元建造设施,为美军的B-52轰炸机、F-22隐形战斗机、加油机和运输机提供支持。

按产业分类来看,由于良好的气象条件,农林渔业增长了1%;制造业方面,轻工业和重化学工业均增长了5.9%;建筑业则以居住用建筑为中心,增长了8.2%。

哈里斯有两个继子女,科尔和艾拉,是她丈夫道格·埃姆霍夫和他第一任妻子所生。孩子的母亲克斯廷·埃姆霍夫在致美国有线电视新闻网(CNN)的声明说,十多年来,哈里斯“一直与道格和我一起抚养孩子”。她说:“很感激她为其中的一员。”

Ủy ban Chữ thập đỏ quốc tế cũng cảnh báo rằng hiện nay người dân đang lo lắng về việc giao quyền quyết định sinh tử cho những vũ khí tự động loại AI này, vì vậy cộng đồng quốc tế cần phải có các phương án khẩn cấp để ứng phó với tình trạng này.

Nhà bình luận quân sự Xia Luoshan nói với The Epoch Times vào ngày 9 tháng 5: “Việc kiểm soát vũ khí hạt nhân bằng AI là một trong những vấn đề của AI quân sự, mặc dù nó vẫn chưa xảy ra, nhưng theo đà phát triển AI của con người hiện nay, có khả năng xảy ra. Do đó, Hoa Kỳ và phương Tây hy vọng thế giới có thể đạt được sự đồng thuận về vấn đề AI không kiểm soát vũ khí hạt nhân. Tác hại do việc ứng dụng AI trong các vấn đề quân sự có thể là không thể khắc phục được.”

AI trở thành khoảnh khắc Oppenheimer tiếp theo

Ngoài những cảnh báo từ Hội Chữ thập đỏ và một số chuyên gia, tại Hội nghị Hệ thống vũ khí tự động Vienna tổ chức ở Áo vào cuối tháng trước, thêm nhiều chuyên gia kêu gọi tất cả các nước cùng thảo luận về việc kiểm soát việc quân sự hóa AI. Các quan chức dân sự, quân sự và kỹ thuật từ hơn 100 quốc gia đã thảo luận về việc kiểm soát việc quân sự hóa AI của quốc gia họ. Bộ trưởng Ngoại giao Áo Alexander Schallenberg đã thẳng thắn phát biểu tại hội nghị: "AI là thời điểm Oppenheimer của thế hệ chúng ta." (Thời điểm Oppenheimer có nghĩa là ngã tư của lịch sử)

Câu này đề cập đến thời điểm nhà vật lý lý thuyết người Mỹ Oppenheimer tham gia và phát triển thành công bom nguyên tử, mang lại chiến thắng cho Hoa Kỳ và quân Đồng minh nên ông được mệnh danh là "Cha đẻ của bom nguyên tử". Tuy nhiên, Oppenheimer đã chứng kiến ​​thảm họa do bom nguyên tử gây ra cho người Nhật và những vết sẹo không thể xóa nhòa mà nó để lại trên trái đất, điều này khiến ông phải suy nghĩ xem liệu quyết định giúp phát triển bom nguyên tử của mình có đúng đắn hay không.

Schallenberg nói: "Nhân loại đang ở ngã ba đường trong lịch sử và vũ khí tự động sẽ có mặt trên khắp các chiến trường trên thế giới. Hiện tại, máy bay không người lái và các máy móc liên quan đến AI có mặt khắp nơi trên chiến trường và chúng ta cũng đang phải đối mặt với vấn đề Pháp lý, đạo đức và an toàn vấn đề”

.

Ông cho rằng thế giới cần khẩn trương thiết lập các quy tắc và chuẩn mực quốc tế đã được thống nhất trong lĩnh vực AI để ngăn chặn AI vượt khỏi tầm kiểm soát do sai sót và thành kiến ​​cực đoan, dẫn đến sự tuyệt chủng của loài người và cái chết hàng loạt. Mọi người cần đảm bảo (vũ khí) được điều khiển bởi con người chứ không phải AI.

Hitoshi Kiyohara đồng tình với ý kiến ​​của Schallenberg. Ông nói: “Tuy nhiên, tuân thủ đạo đức là cách duy nhất để đảm bảo con người sẽ không đi đến chỗ tự hủy diệt. Nếu đạo đức không theo kịp sự phát triển của vũ khí hay công nghệ, con người sẽ dễ lạc lối và bỏ qua nhận thức về an toàn”. ◇

(Các phóng viên Zhang Zhongyuan và Wang Jiayi đã đóng góp cho bài viết này)

Biên tập viên: Lian Shuhua#

Đường dây nóng dịch vụ
Trang web chính thức:{www.dlgzjx.com/}
Thời gian hoạt động:Thứ Hai đến Thứ Bảy(09:00-18:00)
liên hệ chúng tôi
URL:www.dlgzjx.com/
Theo dõi tài khoản công khai

Powered by Nơi tập hợp tin tức bản đồ RSS bản đồ HTML

Copyright 站群系统 © 2013-2024 tin tưc hăng ngay Đã đăng ký Bản quyền