
การมีส่วนร่วมกับชุมชนเทคโนโลยีไม่ได้เป็น“ ดีที่มี” งานอดิเรกสำหรับผู้กำหนดนโยบายการป้องกัน-มันเป็น“ ขาดไม่ได้อย่างแน่นอนที่จะมีชุมชนนี้มีส่วนร่วมตั้งแต่เริ่มต้นในการออกแบบการพัฒนาและการใช้กรอบที่จะเป็นแนวทางความปลอดภัยและความปลอดภัยของระบบ AI และความสามารถในการวิจัย
พูดเมื่อเร็ว ๆ นี้ การประชุมระดับโลกเกี่ยวกับความปลอดภัยและจริยธรรมของ AI โฮสต์โดย Unidir ในเจนีวาเธอเน้นถึงความสำคัญของการสร้างรั้วที่มีประสิทธิภาพในขณะที่โลกนำทางสิ่งที่เรียกว่า “ช่วงเวลาของ Oppenheimer” ของ AI – ในการอ้างอิงถึง Robert Oppenheimer นักฟิสิกส์นิวเคลียร์ของสหรัฐฯ
จำเป็นต้องมีการกำกับดูแลเพื่อให้การพัฒนา AI เคารพสิทธิมนุษยชนกฎหมายระหว่างประเทศและจริยธรรมโดยเฉพาะอย่างยิ่งในด้านอาวุธ Ai -Guided – เพื่อรับประกันว่าเทคโนโลยีที่ทรงพลังเหล่านี้พัฒนาขึ้นในลักษณะที่ควบคุมและรับผิดชอบอย่างเป็นทางการ
เทคโนโลยีที่มีข้อบกพร่อง
AI ได้สร้างภาวะที่กลืนไม่เข้าคายไม่ออกด้านความปลอดภัยสำหรับรัฐบาลและกองทัพทั่วโลกแล้ว
ธรรมชาติของเทคโนโลยี AI ที่ใช้แล้ว-ที่ซึ่งพวกเขาสามารถใช้ในการตั้งค่าพลเรือนและการทหารเหมือนกัน-หมายความว่านักพัฒนาสามารถสูญเสียการติดต่อกับความเป็นจริงของสภาพสนามรบซึ่งการเขียนโปรแกรมของพวกเขาอาจมีค่าใช้จ่ายชีวิตเตือน Arnaud Valli หัวหน้าฝ่ายกิจการสาธารณะที่ Comand AI
เครื่องมือยังคงอยู่ในช่วงเริ่มต้น แต่มีความกลัวมานานแล้วว่าพวกเขาสามารถนำไปใช้ในการตัดสินใจในชีวิตหรือตายในการตั้งค่าสงครามขจัดความจำเป็นในการตัดสินใจและความรับผิดชอบของมนุษย์ ดังนั้นการเรียกร้องที่เพิ่มขึ้นสำหรับการควบคุมเพื่อให้แน่ใจว่ามีการหลีกเลี่ยงข้อผิดพลาดที่อาจนำไปสู่ผลร้าย
“ เราเห็นว่าระบบเหล่านี้ล้มเหลวตลอดเวลา” เดวิดซัลลี่ซีอีโอของ Advai บริษัท ในกรุงลอนดอนกล่าวเสริมว่าเทคโนโลยียังคง“ ไม่เป็นที่จดจำมาก”
“ ดังนั้นการทำให้พวกเขาผิดพลาดนั้นไม่ยากอย่างที่คนคิดบางครั้ง” เขากล่าว
ความรับผิดชอบร่วมกัน
ที่ Microsoft ทีมกำลังมุ่งเน้นไปที่หลักการหลักของความปลอดภัยความปลอดภัยความละม้ายคล้ายคลึงกันความเป็นธรรมและความรับผิดชอบ Michael Karimian ผู้อำนวยการฝ่ายการทูตดิจิตอลกล่าว
ยักษ์ใหญ่ด้านเทคโนโลยีของสหรัฐอเมริกาที่ก่อตั้งโดย Invoice Gates มีข้อ จำกัด เกี่ยวกับเทคโนโลยีการรับรู้ใบหน้าแบบเรียลไทม์ที่ใช้โดยการบังคับใช้กฎหมายที่อาจทำให้เกิดอันตรายทางจิตใจหรือร่างกายนาย Karimian อธิบาย
ต้องมีการป้องกันที่ชัดเจนและ บริษัท จะต้องทำงานร่วมกันเพื่อทำลายไซโลเขาบอกกับเหตุการณ์ที่สหประชาชาติเจนีวา
“ นวัตกรรมไม่ใช่สิ่งที่เพิ่งเกิดขึ้นภายในองค์กรเดียวมีความรับผิดชอบในการแบ่งปัน” นายคาริเมียนซึ่งเป็นหุ้นส่วนของ บริษัท กับ Unidir เพื่อให้แน่ใจว่า AI ปฏิบัติตามสิทธิมนุษยชนระหว่างประเทศกล่าว
กำกับดูแลความขัดแย้ง
ส่วนหนึ่งของสมการคือเทคโนโลยีมีการพัฒนาอย่างรวดเร็วอย่างรวดเร็วประเทศต่าง ๆ กำลังดิ้นรนเพื่อให้ทัน
“ การพัฒนา AI กำลังแซงหน้าความสามารถของเราในการจัดการความเสี่ยงมากมาย” Solyna Nur Abdullah ซึ่งเป็นหัวหน้าการวางแผนเชิงกลยุทธ์และที่ปรึกษาพิเศษของเลขาธิการที่สหภาพโทรคมนาคมระหว่างประเทศ (ITU–
“ เราจำเป็นต้องจัดการกับความขัดแย้งด้านการกำกับดูแล AI โดยตระหนักว่าบางครั้งกฎระเบียบที่ล้าหลังเทคโนโลยีทำให้เป็นสิ่งจำเป็นสำหรับการสนทนาอย่างต่อเนื่องระหว่างนโยบายและผู้เชี่ยวชาญด้านเทคนิคในการพัฒนาเครื่องมือสำหรับการกำกับดูแลที่มีประสิทธิภาพ” นางอับดุลลาห์กล่าวเสริมว่าประเทศกำลังพัฒนาจะต้องได้รับที่นั่งที่โต๊ะ
ช่องว่างความรับผิดชอบ
กว่าทศวรรษที่ผ่านมาในปี 2013 ผู้เชี่ยวชาญด้านสิทธิมนุษยชนที่มีชื่อเสียง Christof Heyns ในก รายงาน บนหุ่นยนต์อัตโนมัติที่เป็นอิสระ (LARS) เตือนว่า“ การพามนุษย์ออกจากห่วงยังมีความเสี่ยงที่จะนำมนุษยชาติออกจากวง”
วันนี้มันไม่ยากที่จะแปลการตัดสินตามกฎหมายที่ขึ้นอยู่กับบริบทเป็นโปรแกรมซอฟต์แวร์และยังคงเป็นสิ่งสำคัญที่การตัดสินใจ“ ชีวิตและความตาย” นั้นถูกนำมาใช้โดยมนุษย์และไม่ใช่หุ่นยนต์ยืนยันว่าเพ็กกี้ฮิกส์ผู้อำนวยการฝ่ายการพัฒนาสำนักงานสิทธิมนุษยชนแห่งสหประชาชาติ (Ohchr–
การสะท้อนสังคม
ในขณะที่ผู้นำด้านเทคโนโลยีและการกำกับดูแลขนาดใหญ่ส่วนใหญ่มองดูหลักการชี้นำของระบบป้องกัน AI อุดมคติอาจขัดแย้งกับบรรทัดล่างของ บริษัท
“ เราเป็น บริษัท เอกชน – เรามองหาผลกำไรเช่นกัน” นายวัลลีของ Comand Ai กล่าว
“ ความน่าเชื่อถือของระบบบางครั้งหายากมาก” เขากล่าวเสริม “ แต่เมื่อคุณทำงานในภาคนี้ความรับผิดชอบอาจมีมหาศาลและมหาศาลอย่างยิ่ง”
ความท้าทายที่ยังไม่ได้รับคำตอบ
ในขณะที่นักพัฒนาหลายคนมุ่งมั่นที่จะออกแบบอัลกอริทึมที่“ ยุติธรรมปลอดภัยและแข็งแกร่ง” ตามที่นาย Sully – ไม่มีแผนที่ถนนสำหรับการใช้มาตรฐานเหล่านี้ – และ บริษัท อาจไม่รู้ด้วยซ้ำว่าพวกเขาพยายามทำอะไร
หลักการเหล่านี้“ ทั้งหมดกำหนดว่าควรมีการนำไปใช้อย่างไร แต่พวกเขาไม่ได้อธิบายว่ามันควรจะเกิดขึ้นได้อย่างไร” นาย Sully กล่าวเตือนผู้กำหนดนโยบายว่า“ AI ยังอยู่ในช่วงแรก”
เทคโนโลยีขนาดใหญ่และผู้กำหนดนโยบายจำเป็นต้องซูมออกและคร่ำครวญมากกว่าภาพที่ใหญ่กว่า
“ สิ่งที่แข็งแกร่งสำหรับระบบคือวัตถุประสงค์ทางเทคนิคอย่างไม่น่าเชื่อและท้าทายอย่างมากในการพิจารณาและปัจจุบันยังไม่ได้รับคำตอบ” เขากล่าวต่อ
ไม่มี AI ‘ลายนิ้วมือ’
Mr. Sully ผู้ซึ่งอธิบายตัวเองว่าเป็น“ ผู้สนับสนุนกฎระเบียบ” ของระบบ AI ซึ่งเคยทำงานให้กับผู้ไม่ได้รับคำสั่ง องค์กรสนธิสัญญาการทดสอบนิวเคลียร์แบบครบวงจร ในเวียนนาซึ่งตรวจสอบว่าการทดสอบนิวเคลียร์เกิดขึ้นหรือไม่
แต่การระบุอาวุธ Ai-Guided เขากล่าวว่าโพสต์ความท้าทายใหม่ทั้งหมดซึ่งอาวุธนิวเคลียร์-มีลายเซ็นนิติวิทยาศาสตร์-ไม่
“ มีปัญหาในทางปฏิบัติในแง่ของวิธีการที่คุณตำรวจกฎระเบียบใด ๆ ในระดับสากล” ซีอีโอกล่าว “ มันเป็นบิตที่ไม่มีใครต้องการพูดถึง แต่จนกว่าจะได้รับการกล่าวถึง … ฉันคิดว่ามันจะเป็นอุปสรรคใหญ่และใหญ่มาก”
การปกป้องในอนาคต
ผู้ได้รับมอบหมายการประชุม UNIDIR ยืนยันถึงความจำเป็นในการมองการณ์ไกลเชิงกลยุทธ์เพื่อทำความเข้าใจความเสี่ยงที่เกิดจากเทคโนโลยีที่ทันสมัยในขณะนี้
สำหรับ Mozilla ซึ่งฝึกอบรมนักเทคโนโลยีรุ่นใหม่นักพัฒนาในอนาคต“ ควรตระหนักถึงสิ่งที่พวกเขาทำกับเทคโนโลยีที่ทรงพลังนี้และสิ่งที่พวกเขากำลังสร้าง” นายอีเลียสของ บริษัท ยืนยัน
นักวิชาการอย่าง Moses B. Khanyile จาก Stellenbosch College ในแอฟริกาใต้เชื่อว่ามหาวิทยาลัยยังมี“ ความรับผิดชอบสูงสุด” ในการปกป้องคุณค่าทางจริยธรรมหลัก
ความสนใจของกองทัพ – ผู้ใช้ที่ตั้งใจไว้ของเทคโนโลยีเหล่านี้ – และรัฐบาลในฐานะหน่วยงานกำกับดูแลจะต้อง“ กลมกลืน” ดร. Khanyile ผู้อำนวยการหน่วยวิจัยข่าวกรองประดิษฐ์กลาโหมที่มหาวิทยาลัย Stellenbosch กล่าว
“ พวกเขาต้องเห็นว่า AI Tech เป็นเครื่องมือที่ดีและดังนั้นพวกเขาจึงต้องกลายเป็นพลังที่ดี”
ประเทศมีส่วนร่วม
ถามว่าพวกเขาจะดำเนินการเพียงครั้งเดียวเพื่อสร้างความไว้วางใจระหว่างประเทศนักการทูตจากจีนเนเธอร์แลนด์ปากีสถานฝรั่งเศสอิตาลีและเกาหลีใต้ก็ชั่งน้ำหนัก
“ เราจำเป็นต้องกำหนดแนวความมั่นคงแห่งชาติในแง่ของการควบคุมการส่งออกของเทคโนโลยีไฮเทค” Shen Jian เอกอัครราชทูตพิเศษและพล่าน (Disarmament) และรองผู้แทนถาวรของสาธารณรัฐประชาชนจีน
เส้นทางสำหรับการวิจัยและพัฒนา AI ในอนาคตจะต้องรวมถึงสาขาฉุกเฉินอื่น ๆ เช่นฟิสิกส์และประสาทวิทยาศาสตร์
“ AI มีความซับซ้อน แต่โลกแห่งความเป็นจริงนั้นซับซ้อนยิ่งขึ้น” โรเบิร์ตในเดนบ๊อชเอกอัครราชทูตลดอาวุธและตัวแทนถาวรของเนเธอร์แลนด์ในการประชุมเรื่องการลดอาวุธ “ ด้วยเหตุนี้ฉันจะบอกว่ามันเป็นสิ่งสำคัญที่จะต้องดู AI ในการบรรจบกับเทคโนโลยีอื่น ๆ และโดยเฉพาะอย่างยิ่งไซเบอร์ควอนตัมและพื้นที่”
(tagstotranslate) ข่าวสหประชาชาติ