ไฮโลออนไลน์ เครื่องจักรสงครามอัตโนมัติอาจทำผิดพลาดราคาแพงในสนามรบในอนาคต

ไฮโลออนไลน์ เครื่องจักรสงครามอัตโนมัติอาจทำผิดพลาดราคาแพงในสนามรบในอนาคต

การดูรายงานของสถาบัน ไฮโลออนไลน์ UN เกี่ยวกับความเสี่ยงของอาวุธที่เป็นอิสระในครั้งแรกก่อนใครโดย KELSEY D. ATHERTON | เผยแพร่เมื่อ 17 พฤษภาคม 2021 11:00 น.

เทคโนโลยี

เอสพีซี Carlos Cuebas Fantauzzi / กองทัพสหรัฐฯ

แบ่งปัน    

ในสนามรบในอนาคต หุ่นยนต์ทหารจะทำผิดพลาด การออกแบบเครื่องจักรอัตโนมัติสำหรับการทำสงครามหมายถึงการยอมรับข้อผิดพลาดในระดับหนึ่งในอนาคต และที่น่ารำคาญกว่านั้นก็คือการไม่รู้ว่าข้อผิดพลาดนั้นจะเป็นอย่างไร

ความช่วยเหลือล่าสุดของสหรัฐฯ ต่อยูเครน: เครื่องยิงจรวดด้วยระยะ 43 ไมล์

ในขณะที่ประเทศต่างๆ ผู้ผลิตอาวุธ และประชาคมระหว่างประเทศทำงานเกี่ยวกับกฎเกณฑ์เกี่ยวกับอาวุธที่เป็นอิสระ การพูดคุยอย่างตรงไปตรงมาเกี่ยวกับความเสี่ยงจากความผิดพลาดของข้อมูลเป็นสิ่งสำคัญหากเครื่องจักรต้องปฏิบัติตามคำมั่นสัญญาว่าจะจำกัดอันตราย

การเปิดตัวใหม่จากสถาบันภายในสหประชาชาติ

จะจัดการกับการสนทนานี้โดยตรง เผยแพร่วันนี้ “ Known Unknowns: Data Issues and Military Autonomous Systems ” เป็นรายงานจากสถาบันวิจัยการลดอาวุธแห่งสหประชาชาติ จุดประสงค์คือการช่วยให้ผู้กำหนดนโยบายเข้าใจถึงความเสี่ยงที่มีอยู่ในเครื่องอัตโนมัติได้ดีขึ้น ความเสี่ยงเหล่านี้รวมถึงทุกอย่างตั้งแต่การประมวลผลข้อมูลจะล้มเหลว การรวบรวมข้อมูลสามารถถูกโจมตีโดยกองกำลังที่เป็นศัตรูได้อย่างไร องค์ประกอบหลักของความเสี่ยงนี้คือข้อมูลที่รวบรวมและใช้ในการสู้รบนั้นยุ่งเหยิงกว่าข้อมูลในห้องแล็บ ซึ่งจะเปลี่ยนวิธีการทำงานของเครื่องจักร 

สถานการณ์ในโลกแห่งความเป็นจริงนั้นหนักใจ บางทีกล้องของหุ่นยนต์ที่ได้รับการฝึกฝนสำหรับแสงจ้าทะเลทรายของ White Sands Missile Range จะตีความเงาสะท้อนของไฟหน้าผิดในเช้าที่มีหมอกหนา บางทีอัลกอริธึมที่มุ่งเป้าไปที่ปืนกลของหุ่นยนต์อาจปรับระยะทางที่ไม่ถูกต้อง เปลี่ยนเป้าเล็งจากด้านหน้าของรถถังไปเป็นอุปกรณ์สนามเด็กเล่น บางทีหน่วยสอดแนมอิสระ กำลังอ่านข้อมูลตำแหน่งจากเสาสัญญาณโทรศัพท์มือถือที่อยู่ใกล้เคียง ถูกฝ่ายตรงข้ามจงใจป้อนข้อมูลที่ไม่ถูกต้อง และทำเครื่องหมายว่าผิดถนนว่าเป็นเส้นทางที่ปลอดภัยสำหรับทหาร

เครื่องอัตโนมัติสามารถทำงานแบบอัตโนมัติได้เพราะรวบรวมข้อมูลเกี่ยวกับสภาพแวดล้อมขณะเคลื่อนที่ผ่าน จากนั้นจึงดำเนินการกับข้อมูลนั้น ในสภาพแวดล้อมการฝึกอบรม ข้อมูลที่ระบบอัตโนมัติรวบรวมมีความเกี่ยวข้อง สมบูรณ์ แม่นยำ และมีคุณภาพสูง แต่รายงานระบุว่า “สภาพแวดล้อมที่มีความขัดแย้งนั้นรุนแรง มีพลังและเป็นปฏิปักษ์ และมีความแปรปรวนมากกว่าในข้อมูลจริงของสนามรบมากกว่าตัวอย่างข้อมูลที่จำกัดซึ่งสร้างและตรวจสอบระบบอัตโนมัติ”

[ที่เกี่ยวข้อง: รัสเซียกำลังสร้างรถถังที่สามารถเลือกเป้าหมายได้เอง มีอะไรผิดพลาด? ]

ตัวอย่างหนึ่งของข้อผิดพลาดประเภทนี้มาจากเซ็นเซอร์กล้อง ในระหว่างการนำเสนอในเดือนตุลาคม 2020ผู้บริหารของบริษัทเซ็นเซอร์ทางการทหารได้อวดอัลกอริธึมการกำหนดเป้าหมาย โดยอวดว่าอัลกอริธึมสามารถแยกแยะระหว่างยานพาหนะทางทหารและพลเรือน ในการสาธิตเดียวกันนั้น วิดีโอดังกล่าวระบุว่ามนุษย์กำลังเดินอยู่ในที่จอดรถและต้นไม้เป็นเป้าหมายเดียวกัน 

เมื่อนักวางแผนทางทหารสร้างระบบอัตโนมัติ

 ขั้นแรกพวกเขาจะฝึกระบบเหล่านั้นด้วยข้อมูลในสภาพแวดล้อมที่มีการควบคุม ด้วยข้อมูลการฝึกอบรม ควรได้รับโปรแกรมการจดจำเป้าหมายเพื่อบอกความแตกต่างระหว่างต้นไม้กับบุคคล แม้ว่าอัลกอริธึมจะถูกต้องในการฝึก แต่การใช้อัลกอริธึมในการต่อสู้ก็อาจหมายถึงโปรแกรมกำหนดเป้าหมายอัตโนมัติที่ล็อกบนต้นไม้แทนที่จะเป็นคน ซึ่งจะไม่มีประสิทธิภาพในด้านการทหาร ที่แย่ไปกว่านั้น มันสามารถล็อคคนแทนที่จะเป็นต้นไม้ ซึ่งอาจนำไปสู่การบาดเจ็บล้มตายโดยไม่ได้ตั้งใจ

ทหารที่เป็นปรปักษ์หรือพวกนอกรีตที่ต้องการเอาชนะการโจมตีด้วยอาวุธอิสระ อาจพยายามหลอกให้หุ่นยนต์ตามล่าพวกมันด้วยข้อมูลเท็จหรือทำให้เข้าใจผิด บางครั้งเรียกว่าการปลอมแปลงและมีตัวอย่างอยู่ในบริบทที่สงบสุข ตัวอย่างเช่น โดยใช้เทปบนป้ายจำกัดความเร็ว 35 ไมล์ต่อชั่วโมงเพื่อให้ 3 อ่านเหมือน 8 เล็กน้อยทีมนักวิจัยโน้มน้าวให้รถ Tesla อยู่ในโหมดขับเคลื่อนด้วยตนเองเพื่อเร่งความเร็วได้ถึง 85 ไมล์ต่อชั่วโมง

ในการทดลองอื่น นักวิจัยสามารถหลอกอัลกอริทึมการรู้จำวัตถุให้สมมติว่าแอปเปิ้ลเป็น iPod โดยติดฉลากกระดาษที่ระบุว่า “iPod” ลงบนแอปเปิ้ล ในสงคราม หุ่นยนต์อิสระที่ออกแบบมาเพื่อเคลียร์ถนนที่มีวัตถุระเบิดอาจมองข้ามระเบิดที่ติดอยู่กับระเบิดได้หากมีป้ายเขียนว่า “ลูกฟุตบอล” แทน 

ข้อผิดพลาดที่ใดก็ได้ในกระบวนการ ตั้งแต่การรวบรวมไปจนถึงการตีความ การสื่อสารข้อมูลนั้นกับมนุษย์ อาจนำไปสู่ ​​”ผลกระทบที่เรียงซ้อน” ซึ่งส่งผลให้เกิดอันตรายโดยไม่ได้ตั้งใจ Arthur Holland Michel นักวิจัยร่วมในโครงการความปลอดภัยและเทคโนโลยีของ UN Institute for Disarmament กล่าว งานวิจัยและผู้เขียนรายงานฉบับนี้

“ลองนึกภาพโดรนสอดแนมซึ่งเป็นผลมาจากการปลอมแปลงหรือข้อมูลที่ไม่ถูกต้อง จัดหมวดหมู่พื้นที่เป้าหมายอย่างไม่ถูกต้องว่ามีความเป็นไปได้ต่ำมากที่พลเรือนจะปรากฏตัว” ฮอลแลนด์ มิเชล บอกกับPopular Scienceทางอีเมล “ทหารที่เป็นมนุษย์เหล่านั้นที่ดำเนินการตามการประเมินของระบบนั้นไม่จำเป็นต้องรู้ว่ามันเป็นข้อผิดพลาด และในสถานการณ์ที่เร่งรีบมาก พวกเขาอาจไม่มีเวลาตรวจสอบการประเมินของระบบและค้นหาปัญหา”

หากการทดสอบพบว่ากล้องเล็งเป้าหมายอาจเข้าใจผิดว่าเป็นต้นไม้สำหรับพลเรือน ทหารจะรู้ว่าต้องมองหาข้อผิดพลาดนั้นในการต่อสู้ หากข้อผิดพลาดคือข้อผิดพลาดที่ไม่เคยปรากฏในการทดสอบ เช่น เซ็นเซอร์อินฟราเรดที่มองเห็นความร้อนของหม้อน้ำแบบคลัสเตอร์หลายตัวและตีความว่าเป็นมนุษย์ ทหารก็ไม่มีเหตุผลที่จะเชื่อว่าระบบอัตโนมัตินั้นผิดพลาด จนกว่าการยิงจะจบลงไฮโลออนไลน์