26 ประเทศ รวมถึงสหรัฐอเมริกา สหราชอาณาจักร ออสเตรเลีย แคนาดา ฝรั่งเศส เยอรมนี อิสราเอล อิตาลี ญี่ปุ่น นิวซีแลนด์ ไนจีเรีย นอร์เวย์ เกาหลีใต้ และสิงคโปร์ ได้ร่วมกันเผยแพร่ชุดแนวทางปฏิบัติที่มุ่งสนับสนุนการรักษาความปลอดภัย ของโมเดล AI เอกสารความยาว 20 หน้าซึ่งเผยแพร่เมื่อวันที่ XNUMX พฤศจิกายน กระตุ้นให้บริษัท AI จัดลำดับความสำคัญด้านความปลอดภัยทางไซเบอร์ โดยเน้นย้ำถึงความจำเป็นของแนวทางปฏิบัติ "ที่ปลอดภัยด้วยการออกแบบ" ความคิดริเริ่มนี้นำโดย Alejandro Mayorkas รัฐมนตรีกระทรวงความมั่นคงแห่งมาตุภูมิของสหรัฐฯ เน้นย้ำถึงบทบาทที่สำคัญของการรักษาความปลอดภัยทางไซเบอร์ในสาขา AI ที่มีการพัฒนาอย่างรวดเร็ว
เอกสารดังกล่าวเสนอคำแนะนำในวงกว้าง เช่น การควบคุมโครงสร้างพื้นฐาน AI ที่เข้มงวด และการตรวจสอบอย่างต่อเนื่องสำหรับการปลอมแปลงที่อาจเกิดขึ้น นอกจากนี้ยังเน้นย้ำถึงความสำคัญของการฝึกอบรมพนักงานด้านความปลอดภัยทางไซเบอร์ อย่างไรก็ตาม มันไม่ได้กล่าวถึงประเด็นที่มีการโต้เถียงใน AI เช่น กฎระเบียบของโมเดลการสร้างภาพ ดีพเฟค และการใช้ข้อมูลในโมเดลการฝึกอบรม ซึ่งนำไปสู่การฟ้องร้องการละเมิดลิขสิทธิ์กับบริษัท AI หลายแห่ง
Mayorkas เน้นย้ำถึงช่วงเวลาสำคัญในการพัฒนา AI โดยตระหนักว่า AI เป็นเทคโนโลยีที่ส่งผลกระทบอย่างลึกซึ้ง ซึ่งความปลอดภัยทางไซเบอร์ถือเป็นสิ่งสำคัญในการรับรองความปลอดภัยและความน่าเชื่อถือ
แนวทางเหล่านี้เป็นส่วนหนึ่งของแนวโน้มการมีส่วนร่วมของรัฐบาลในวงกว้างมากขึ้นในกฎระเบียบด้าน AI เมื่อต้นเดือนที่ผ่านมา การประชุมสุดยอดด้านความปลอดภัยของ AI จัดขึ้นที่ลอนดอน โดยมุ่งเน้นไปที่ข้อตกลงการพัฒนา AI ขณะเดียวกัน สหภาพยุโรปกำลังปรับปรุงพระราชบัญญัติ AI เพื่อควบคุมภาคส่วนนี้ และประธานาธิบดีโจ ไบเดน ของสหรัฐฯ ได้ออกคำสั่งผู้บริหารในเดือนตุลาคม เพื่อกำหนดมาตรฐานความปลอดภัยและความมั่นคงของ AI โครงการริเริ่มทั้งสหภาพยุโรปและสหรัฐอเมริกาต้องเผชิญกับการต่อต้านจากอุตสาหกรรม AI เนื่องจากความกังวลเรื่องการยับยั้งนวัตกรรม
บริษัท AI รายใหญ่ เช่น OpenAI, Microsoft, Google, Anthropic และ Scale AI ก็มีบทบาทในการกำหนดแนวปฏิบัติด้านความปลอดภัยใหม่เหล่านี้เช่นกัน