กลุ่มนักวิทยาศาสตร์ AI เรียกร้องให้ประเทศต่าง ๆ สร้างระบบควบคุมระดับโลกเพื่อป้องกันผลลัพธ์ที่อาจเป็น “ภัยพิบัติ” หากมนุษย์สูญเสียการควบคุม AI
เมื่อวันที่ 16 กันยายน กลุ่มนักวิทยาศาสตร์ที่มีชื่อเสียงได้ออกมาเตือนว่าเทคโนโลยี AI ที่พวกเขาช่วยพัฒนาอาจก่อให้เกิดความเสียหายร้ายแรงหากมนุษย์ไม่สามารถควบคุมได้ โดยแถลงการณ์ระบุว่า “การสูญเสียการควบคุมของมนุษย์หรือการใช้ AI โดยมีเจตนาร้ายอาจนำไปสู่ผลลัพธ์ที่เป็นภัยพิบัติสำหรับมนุษยชาติทั้งหมด”
นักวิทยาศาสตร์เห็นว่าประเทศต่าง ๆ ควรพัฒนาหน่วยงานเพื่อตรวจจับและตอบสนองต่อเหตุการณ์ที่เกี่ยวข้องกับ AI และจำเป็นต้องมี “แผนสำรองระดับโลก” เพื่อจัดการกับความเสี่ยงที่อาจเกิดขึ้น
“ในระยะยาว รัฐต่าง ๆ ควรพัฒนาระบบการปกครองระหว่างประเทศเพื่อป้องกันการพัฒนารูปแบบที่อาจก่อให้เกิดความเสี่ยงระดับโลก”
การเรียกร้องนี้มาจากการประชุม International Dialogue on AI Safety ที่เมืองเวนิสซึ่งจัดโดย Safe AI Forum กลุ่มวิจัยไม่แสวงหาผลกำไรจากสหรัฐฯ
ศาสตราจารย์ Gillian Hadfield จากมหาวิทยาลัย Johns Hopkins ซึ่งเป็นหนึ่งในผู้ลงนามแถลงการณ์ กล่าวว่า “หากเกิดภัยพิบัติในอีกหกเดือนข้างหน้า และเราพบว่าโมเดล AI เริ่มพัฒนาตนเองอัตโนมัติ เราจะติดต่อใคร?”
นักวิทยาศาสตร์เสนอให้มีการพัฒนากระบวนการสำคัญสามประการ ได้แก่ ข้อตกลงและสถาบันสำหรับการเตรียมพร้อมฉุกเฉิน, กรอบการรับรองความปลอดภัย, และการวิจัยความปลอดภัยและการตรวจสอบ AI ระดับโลก
แถลงการณ์นี้ได้รับการลงนามโดยผู้เชี่ยวชาญจากหลายประเทศ รวมถึงสหรัฐฯ, แคนาดา, จีน, อังกฤษ, สิงคโปร์ และอื่น ๆ โดยมีผู้ลงนามจากสถาบันวิจัย AI ชั้นนำและผู้ชนะรางวัล Turing
การประชุมนี้เป็นการตอบสนองต่อการลดลงของการแลกเปลี่ยนทางวิทยาศาสตร์ระหว่างมหาอำนาจและความไม่ไว้วางใจที่เพิ่มขึ้นระหว่างสหรัฐฯ และจีน นอกจากนี้ ยังมีการลงนามในสนธิสัญญาระหว่างประเทศด้าน AI ที่มีผลผูกพันทางกฎหมายฉบับแรกของโลก โดยเน้นการรักษาสิทธิมนุษยชนและความรับผิดชอบในการควบคุม AI
อย่างไรก็ตาม ผู้บริหารและบริษัทเทคโนโลยีเตือนว่าการควบคุมที่มากเกินไปอาจขัดขวางนวัตกรรม โดยเฉพาะในสหภาพยุโรป
Reference : Cointelegraph