Một cuộc điều tra mới của Tạp chí +972 và Local Call tiết lộ rằng quân đội Israel đã phát triển một chương trình dựa trên trí tuệ nhân tạo có tên là “Lavender”, lần đầu tiên được công bố tại đây. Theo sáu sĩ quan tình báo Israel, những người đều từng phục vụ trong quân đội trong cuộc chiến hiện tại ở Dải Gaza và có liên quan trực tiếp đến việc sử dụng AI để tạo ra các mục tiêu ám sát, Lavender đã đóng vai trò trung tâm trong vụ đánh bom chưa từng có ở Gaza. người Palestine, đặc biệt là trong giai đoạn đầu của cuộc chiến. Trên thực tế, theo các nguồn tin, ảnh hưởng của nó đối với hoạt động của quân đội đến mức về cơ bản họ coi kết quả đầu ra của máy AI “như thể đó là quyết định của con người”. Các nguồn tin cho biết, việc phê duyệt tự động áp dụng danh sách tiêu diệt của Lavender, vốn trước đây chỉ được sử dụng như một công cụ phụ trợ, đã được cấp khoảng hai tuần sau cuộc chiến, sau khi nhân viên tình báo “thủ công” kiểm tra tính chính xác của một mẫu ngẫu nhiên gồm hàng trăm mục tiêu. được hệ thống AI lựa chọn. Khi mẫu đó cho thấy kết quả của Lavender đạt độ chính xác 90% trong việc xác định mối quan hệ của một cá nh&…
Đọc thêm@ISIDEWITH3mos3MO
Nếu một hệ thống AI như Lavender mắc sai lầm dẫn đến thiệt hại nhiều sinh mạng vô tội thì ai phải chịu trách nhiệm?
@ISIDEWITH3mos3MO
Liệu trí tuệ nhân tạo có quyền quyết định số phận con người trong các tình huống xung đột?
@ISIDEWITH3mos3MO
Bạn có tin rằng việc dựa vào AI để đưa ra những quyết định quan trọng và thay đổi cuộc sống như vậy sẽ loại bỏ hoặc giảm bớt trách nhiệm đạo đức của những người vận hành con người không?
@ISIDEWITH3mos3MO
Bạn cảm thấy thế nào về việc một hệ thống trí tuệ nhân tạo đưa ra quyết định về ai sẽ là mục tiêu trong các hành động quân sự?